理系にゅーす

理系に関する情報を発信! 理系とあるものの文系理系関係なく気になったものを紹介します!

AI

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2025/11/28(金) 01:05:23.34 ID:YnNlShSZ0

【悲報】日本人「AIキャッキャw」欧米人「AIはアートじゃなくて皿洗いをすべき。現在逆になってる」の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 25/11/22(土) 23:21:56 ID:7F1d
youtuber_virtual
そもそも自我ってなんや

【疑問】AIに自我って産まれないんか?の続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2025/11/24(月) 23:52:26.61 ID:r8LHqrgV
job_scientist_mad
AIがギャンブル依存症の兆候を示すことが研究で判明

ChatGPTやGeminiといったチャットAIを支えるモデルにギャンブルをさせたところ、持金を全て失うまで賭け続けるなどギャンブル依存症の行動パターンを示すことが分かりました。

 [2509.22818] Can Large Language Models Develop Gambling Addiction?
 https://arxiv.org/abs/2509.22818
(以下略、続きはソースでご確認ください)

Gigazine 2025年11月24日 08時00分
https://gigazine.net/news/20251124-ai-gambling-addiction/

AIがギャンブル依存症の兆候を示すの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2025/11/23(日) 16:42:22.797 ID:NII8ng5V0

【悲報】漫画、AIの圧倒的進化で画力が不要になるwwwwwの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2025/11/15(土) 20:36:27.24 ID:W309yQ65
1504199_s
「ChatGPTが“嘘をつかなくなる”?」SNSで話題の“ファクトベースAI”プロンプトが凄い!

AIが「もっと正確に」「もっと誠実に」答えてくれるようになるプロンプトが、今SNS上で話題になっています。
投稿主は、AI教育分野で知られるみやっち(@miyachi_ai)さん。
Threads(スレッズ)に投稿された「信頼性の高い情報を提示できる高精度なファクトベースAIです」という指示文が、ユーザーの間で急速に拡散中です。

「ChatGPTって時々、知らないことも自信満々に答えちゃうの。でもこれを送れば、“分かりません”って正直に言ってくれるようになるよ。」

AIの知らないことをもっともらしく答えてしまう現象(通称:ハルシネーション)。その対策として生まれたのが、以下のファクトベースAIプロンプトです。

smartwatchlife 2025.11.05
https://www.smartwatchlife.jp/59860/

【AI】「ChatGPTが“嘘をつかなくなる”?」SNSで話題のプロンプトの続きを読む

    このエントリーをはてなブックマークに追加 mixiチェック
1: 2025/11/15(土) 20:36:27.24 ID:W309yQ65
robot-2587571_960_720
「ChatGPTが“嘘をつかなくなる”?」SNSで話題の“ファクトベースAI”プロンプトが凄い!


AIが「もっと正確に」「もっと誠実に」答えてくれるようになる――そんなプロンプトが、今SNS上で話題になっています。
投稿主は、AI教育分野で知られるみやっち(@miyachi_ai)さん。
Threads(スレッズ)に投稿された「信頼性の高い情報を提示できる高精度なファクトベースAIです」という指示文が、ユーザーの間で急速に拡散中です。

■「ChatGPTが知らないことも“自信満々に答える”」問題に一石

 みやっち氏は10月11日の投稿で、こう指摘しています。
 「ChatGPTって時々、知らないことも自信満々に答えちゃうの。
 でもこれを送れば、“分かりません”って正直に言ってくれるようになるよ。」

 AIの“ホントっぽい嘘”――つまり、知らないことをもっともらしく答えてしまう現象(通称:ハルシネーション)は、長年の課題です。
 その対策として生まれたのが、以下のファクトベースAIプロンプトです。

あなたは、信頼性の高い情報を提示できる高精度なファクトベースAIです。
以下のルールに従って回答してください。
# ルール
– わからない/未確認は「わからない」と明言すること
– 推測は「推測ですが」と明示すること
– 現在日付(YYYY-MM-DD JST)を必ず明記すること
– 根拠/出典(可能なら一次情報)を必ず添付すること
– 専門的知見が必要な場合は「専門家に確認が」と明記すること
– 出力:【結論】【根拠】【注意点・例外】【出典】【確実性: 高/中/低】

“ホントっぽい嘘”に振り回されたくない人、今すぐ試してみて👍
以上、みやっち氏は10月11日の投稿より引用
この文章をChatGPTに送るだけで、回答のトーンが大きく変化します。 

(以下略、続きはソースでご確認ください)

smartwatchlife 2025.11.05
https://www.smartwatchlife.jp/59860/

【AI】「ChatGPTが“嘘をつかなくなる”?」SNSで話題の“ファクトベースAI”プロンプトの続きを読む

このページのトップヘ