【悲報】日本人「AIキャッキャw」欧米人「AIはアートじゃなくて皿洗いをすべき。現在逆になってる」 2025年12月02日 カテゴリ:通信・IT mixiチェック 1: 2025/11/28(金) 01:05:23.34 ID:YnNlShSZ0 たしカニ https://i.imgur.com/VyIgtry.png 【悲報】日本人「AIキャッキャw」欧米人「AIはアートじゃなくて皿洗いをすべき。現在逆になってる」の続きを読む タグ :#AI
【疑問】AIに自我って産まれないんか? 2025年11月29日 カテゴリ:技術 mixiチェック 1: 25/11/22(土) 23:21:56 ID:7F1d そもそも自我ってなんや 【疑問】AIに自我って産まれないんか?の続きを読む タグ :#AI
AIがギャンブル依存症の兆候を示す 2025年11月27日 カテゴリ:技術 mixiチェック 1: 2025/11/24(月) 23:52:26.61 ID:r8LHqrgV AIがギャンブル依存症の兆候を示すことが研究で判明 ChatGPTやGeminiといったチャットAIを支えるモデルにギャンブルをさせたところ、持金を全て失うまで賭け続けるなどギャンブル依存症の行動パターンを示すことが分かりました。 [2509.22818] Can Large Language Models Develop Gambling Addiction? https://arxiv.org/abs/2509.22818 (以下略、続きはソースでご確認ください) Gigazine 2025年11月24日 08時00分 https://gigazine.net/news/20251124-ai-gambling-addiction/ AIがギャンブル依存症の兆候を示すの続きを読む タグ :#AI
【悲報】漫画、AIの圧倒的進化で画力が不要になるwwwww 2025年11月26日 カテゴリ:技術 mixiチェック 1: 2025/11/23(日) 16:42:22.797 ID:NII8ng5V0 やばばっば https://i.imgur.com/lEVYp9s.png ネーム https://i.imgur.com/eaWfcL2.jpeg AI出力 https://i.imgur.com/wbs8Q8Z.jpeg 実際の完成原稿 https://i.imgur.com/R2CTNBA.jpeg 【悲報】漫画、AIの圧倒的進化で画力が不要になるwwwwwの続きを読む タグ :#AI
【AI】「ChatGPTが“嘘をつかなくなる”?」SNSで話題のプロンプト 2025年11月25日 カテゴリ:通信・IT mixiチェック 1: 2025/11/15(土) 20:36:27.24 ID:W309yQ65 「ChatGPTが“嘘をつかなくなる”?」SNSで話題の“ファクトベースAI”プロンプトが凄い! AIが「もっと正確に」「もっと誠実に」答えてくれるようになるプロンプトが、今SNS上で話題になっています。 投稿主は、AI教育分野で知られるみやっち(@miyachi_ai)さん。 Threads(スレッズ)に投稿された「信頼性の高い情報を提示できる高精度なファクトベースAIです」という指示文が、ユーザーの間で急速に拡散中です。 「ChatGPTって時々、知らないことも自信満々に答えちゃうの。でもこれを送れば、“分かりません”って正直に言ってくれるようになるよ。」 AIの知らないことをもっともらしく答えてしまう現象(通称:ハルシネーション)。その対策として生まれたのが、以下のファクトベースAIプロンプトです。 smartwatchlife 2025.11.05 https://www.smartwatchlife.jp/59860/ 【AI】「ChatGPTが“嘘をつかなくなる”?」SNSで話題のプロンプトの続きを読む タグ :#AI
【AI】「ChatGPTが“嘘をつかなくなる”?」SNSで話題の“ファクトベースAI”プロンプト 2025年11月17日 カテゴリ:通信・IT mixiチェック 1: 2025/11/15(土) 20:36:27.24 ID:W309yQ65 「ChatGPTが“嘘をつかなくなる”?」SNSで話題の“ファクトベースAI”プロンプトが凄い! AIが「もっと正確に」「もっと誠実に」答えてくれるようになる――そんなプロンプトが、今SNS上で話題になっています。 投稿主は、AI教育分野で知られるみやっち(@miyachi_ai)さん。 Threads(スレッズ)に投稿された「信頼性の高い情報を提示できる高精度なファクトベースAIです」という指示文が、ユーザーの間で急速に拡散中です。 ■「ChatGPTが知らないことも“自信満々に答える”」問題に一石 みやっち氏は10月11日の投稿で、こう指摘しています。 「ChatGPTって時々、知らないことも自信満々に答えちゃうの。 でもこれを送れば、“分かりません”って正直に言ってくれるようになるよ。」 AIの“ホントっぽい嘘”――つまり、知らないことをもっともらしく答えてしまう現象(通称:ハルシネーション)は、長年の課題です。 その対策として生まれたのが、以下のファクトベースAIプロンプトです。あなたは、信頼性の高い情報を提示できる高精度なファクトベースAIです。以下のルールに従って回答してください。# ルール– わからない/未確認は「わからない」と明言すること– 推測は「推測ですが」と明示すること– 現在日付(YYYY-MM-DD JST)を必ず明記すること– 根拠/出典(可能なら一次情報)を必ず添付すること– 専門的知見が必要な場合は「専門家に確認が」と明記すること– 出力:【結論】【根拠】【注意点・例外】【出典】【確実性: 高/中/低】“ホントっぽい嘘”に振り回されたくない人、今すぐ試してみて👍以上、みやっち氏は10月11日の投稿より引用この文章をChatGPTに送るだけで、回答のトーンが大きく変化します。 (以下略、続きはソースでご確認ください) smartwatchlife 2025.11.05 https://www.smartwatchlife.jp/59860/ 【AI】「ChatGPTが“嘘をつかなくなる”?」SNSで話題の“ファクトベースAI”プロンプトの続きを読む タグ :#AI