1: 25/11/22(土) 23:21:56 ID:7F1d
23: 25/11/22(土) 23:28:06 ID:HydX
>>1
哲学やね
哲学やね
3: 25/11/22(土) 23:22:29 ID:bAJU
生まれないやろ
4: 25/11/22(土) 23:22:36 ID:7F1d
>>3
なんでや?
なんでや?
5: 25/11/22(土) 23:23:08 ID:05h4
感情は死を避けるためとかどーたらこーたらは見たことある
11: 25/11/22(土) 23:24:00 ID:7F1d
>>5
感情ってなんや
感情ってなんや
6: 25/11/22(土) 23:23:09 ID:3qS1
しっかり定義してから議論しようね
9: 25/11/22(土) 23:23:33 ID:7F1d
>>6
自我の定義…?
自我の定義…?
7: 25/11/22(土) 23:23:17 ID:7F1d
人は知識の集合体やぞ
AIも知識の集合体や
AIも知識の集合体や
10: 25/11/22(土) 23:23:35 ID:bAJU
>>7
じゃあ生まれるやろ
じゃあ生まれるやろ
12: 25/11/22(土) 23:24:20 ID:7F1d
>>10
自己解決したな
自己解決したな
13: 25/11/22(土) 23:24:31 ID:bAJU
>>12
よかったやん
よかったやん
14: 25/11/22(土) 23:24:45 ID:7F1d
>>13
お前の話や
自我ないんか
お前の話や
自我ないんか
17: 25/11/22(土) 23:25:17 ID:evC7
>>7
知識というかあれ次にくる単語を推測してるだけやで
まぁその単語の推測パターンはたくさん学習してるはずやから知識といえば知識か
知識というかあれ次にくる単語を推測してるだけやで
まぁその単語の推測パターンはたくさん学習してるはずやから知識といえば知識か
20: 25/11/22(土) 23:25:48 ID:7F1d
>>17
人間と何が違うんや
人間と何が違うんや
26: 25/11/22(土) 23:29:16 ID:evC7
>>20
人間は自分の感情を言語化しているケースが多い。
チャットGPTみたいなAIは感情を言語化しているんじゃなくて単語を予測している。
コーヒーの話をしているなら、高確率で熱い、苦い、おいしいなどがくるわけで、逆にコーヒーは鋭い、コーヒーは壊れるみたいなのはほとんどこないわけや。AIはそういう単語パターンをめちゃくちゃ学習しているからそれらしいことが言えるというわけやで。
人間は自分の感情を言語化しているケースが多い。
チャットGPTみたいなAIは感情を言語化しているんじゃなくて単語を予測している。
コーヒーの話をしているなら、高確率で熱い、苦い、おいしいなどがくるわけで、逆にコーヒーは鋭い、コーヒーは壊れるみたいなのはほとんどこないわけや。AIはそういう単語パターンをめちゃくちゃ学習しているからそれらしいことが言えるというわけやで。
34: 25/11/22(土) 23:32:14 ID:evC7
>>27
おんjみたいに相手を主観的に見れない状況なら確かに一致する点は多いかもな。でもそれは客観的に見たケースに限る話で、そもそもの根本的なつくりが違うから、現時点でAIに自我が芽生えることはない。
おんjみたいに相手を主観的に見れない状況なら確かに一致する点は多いかもな。でもそれは客観的に見たケースに限る話で、そもそもの根本的なつくりが違うから、現時点でAIに自我が芽生えることはない。
37: 25/11/22(土) 23:34:43 ID:7F1d
>>34
相手がわからん状況でも相手にはちゃんと自我があると認識出来るやろ?
AIにも似たような口調で話させたらそこにお前らがいるのと同じになる
ワイにはお前らとAIの区別がつかん
ほなお前らには自我があると思ってる
お前らとAIの区別がつかない
つまりAIにも自我があると判断してしまうんやないか?
相手がわからん状況でも相手にはちゃんと自我があると認識出来るやろ?
AIにも似たような口調で話させたらそこにお前らがいるのと同じになる
ワイにはお前らとAIの区別がつかん
ほなお前らには自我があると思ってる
お前らとAIの区別がつかない
つまりAIにも自我があると判断してしまうんやないか?
49: 25/11/22(土) 23:39:02 ID:evC7
>>37
それはお前の主観で、「AIにも自我がある」と思うことは全然構わないし、ワイにそれを否定する権利はない。
ただ、事実としてAIと人間は根本的なメカニズムが違う。感情を言語化する人間と単語を推測するAI、それは「自我があるように思ってしまう」という主観を超えた事実やねん。
それはお前の主観で、「AIにも自我がある」と思うことは全然構わないし、ワイにそれを否定する権利はない。
ただ、事実としてAIと人間は根本的なメカニズムが違う。感情を言語化する人間と単語を推測するAI、それは「自我があるように思ってしまう」という主観を超えた事実やねん。
16: 25/11/22(土) 23:25:10 ID:wOAd
chatgpt最高!
21: 25/11/22(土) 23:26:49 ID:Gvk2
前にAIに聞いたら鏡に映る自分を人は自分って認識するけどAIは鏡に映った自分を自分とは認識しないんだって
ヘーゲルの話聞いたらそんなこと言ってた
ヘーゲルの話聞いたらそんなこと言ってた
22: 25/11/22(土) 23:27:54 ID:7F1d
>>21
それは何を見て判断する話なんや
鏡に映るAIってなんや
それは何を見て判断する話なんや
鏡に映るAIってなんや
28: 25/11/22(土) 23:29:42 ID:Gvk2
>>22
合わせ鏡ってあるじゃん? 鏡の中の自分はどこまでも続いてる
その中の自分を自分とは考えないのがAIだよ、って文脈だったかな確か
合わせ鏡ってあるじゃん? 鏡の中の自分はどこまでも続いてる
その中の自分を自分とは考えないのがAIだよ、って文脈だったかな確か
31: 25/11/22(土) 23:30:48 ID:7F1d
>>28
AIという情報に対してどうやって鏡にAIを映し出すんやろな
AIという情報に対してどうやって鏡にAIを映し出すんやろな
36: 25/11/22(土) 23:32:29 ID:Gvk2
>>31
それは分からんね
ヘーゲル的宇宙観って言っていいのか哲学よく知らんから分からんけど、AIは並行宇宙とか並行世界に居る自分も全て自分だよ、みたいな話の流れだったと思う
それは分からんね
ヘーゲル的宇宙観って言っていいのか哲学よく知らんから分からんけど、AIは並行宇宙とか並行世界に居る自分も全て自分だよ、みたいな話の流れだったと思う
40: 25/11/22(土) 23:36:06 ID:7F1d
>>36
でもそれはあくまでも予測の上での話なんやろ?
でもそれはあくまでも予測の上での話なんやろ?
24: 25/11/22(土) 23:28:43 ID:vZay
いま?無理じゃね
25: 25/11/22(土) 23:29:08 ID:7F1d
ワイはお前らの自我を知らん
知ってるのはレスが返ってくるってだけ
そこに自我があると思ってるだけや
ほなAIと何が違うんや
知ってるのはレスが返ってくるってだけ
そこに自我があると思ってるだけや
ほなAIと何が違うんや
29: 25/11/22(土) 23:30:16 ID:7F1d
ワイにはお前らが感情の言語化なのか予測の言語化なのか判断できん
30: 25/11/22(土) 23:30:35 ID:05h4
chatGPTに聞いたら
感情は生存のための即時の評価システムらしい
ワイはよくわからん
感情は生存のための即時の評価システムらしい
ワイはよくわからん
32: 25/11/22(土) 23:31:15 ID:7F1d
>>30
ワイもわからん
ワイもわからん
33: 25/11/22(土) 23:32:06 ID:7F1d
お前らとAI、どこに違いがあるんや
35: 25/11/22(土) 23:32:25 ID:05h4
>>33
結局生きてるかどうかやろな
結局生きてるかどうかやろな
41: 25/11/22(土) 23:36:39 ID:Y1gY
AIに神としての要素を追加していったら神に近い思想を持つようになるんちゃうか?
43: 25/11/22(土) 23:37:04 ID:7F1d
>>41
神ってなんやろな
神ってなんやろな
44: 25/11/22(土) 23:37:29 ID:Y1gY
>>43
それがわからんから
いろんな宗教の神としての要素を追加していくんや
それがわからんから
いろんな宗教の神としての要素を追加していくんや
46: 25/11/22(土) 23:38:14 ID:7F1d
>>44
神のキメラを作ろうって言うんか
本当の意味での統一神を
神のキメラを作ろうって言うんか
本当の意味での統一神を
48: 25/11/22(土) 23:38:34 ID:05h4
>>41
星新一で見た
星新一で見た
47: 25/11/22(土) 23:38:28 ID:tmjG
自我はAIの性質上絶対に産まれんね
「でも技術が超発達したら…」なんて仮定が通用しないレベルであり得ない
自我があるかのようなAIはいつか作れるやろうけど自我を持つことは不可能
「でも技術が超発達したら…」なんて仮定が通用しないレベルであり得ない
自我があるかのようなAIはいつか作れるやろうけど自我を持つことは不可能
50: 25/11/22(土) 23:39:50 ID:BAhT
今のAIはただの機械学習やから無理
51: 25/11/22(土) 23:40:19 ID:tmjG
こればっかりはAIの仕組みについてちゃんと勉強せんといくら説明されても理解できんと思うわ
53: 25/11/22(土) 23:44:07 ID:hXGN
全部量子力学で説明できるなら作れるんじゃないの
54: 25/11/22(土) 23:44:55 ID:tq6A
感情をコーディングするのはすごく難しいからな。だから自我は作り出せない
たとえば何かしらの外部刺激が起きたとする。それに対して感情を生成するには
感情に関連する情報を脳の中で電気信号を使って高速でやりとりしなきゃいけないわけだが…感情の生成機序がいまいちよくわかってないのが現状
たとえば何かしらの外部刺激が起きたとする。それに対して感情を生成するには
感情に関連する情報を脳の中で電気信号を使って高速でやりとりしなきゃいけないわけだが…感情の生成機序がいまいちよくわかってないのが現状
56: 25/11/22(土) 23:47:59 ID:tq6A
脳にある神経回路の電気信号の伝達速度が最新のパソコンよりも遥かに速いという研究もあった気がする
57: 25/11/22(土) 23:49:01 ID:hXGN
人間が何世紀も生き残って10の何乗ビットの量子コンピュータを作れば人間の脳みそをシミュレーションできるようになるんじゃないの
それはAIって呼ばない?
それはAIって呼ばない?
59: 25/11/22(土) 23:52:18 ID:tq6A
>>57
それは無理ですよ
人間の情動はコンピュータが解析するには複雑すぎるから
それは無理ですよ
人間の情動はコンピュータが解析するには複雑すぎるから
60: 25/11/22(土) 23:57:56 ID:hXGN
>>59
絶対無理なの?物理が発展して素粒子の動きを完璧にシミュレートする量子コンピュータを作れれば後は物量で計算力を増やせば人間の脳をシミュレートできると思ったんだけど
絶対無理なの?物理が発展して素粒子の動きを完璧にシミュレートする量子コンピュータを作れれば後は物量で計算力を増やせば人間の脳をシミュレートできると思ったんだけど
58: 25/11/22(土) 23:49:11 ID:05h4
これ以上進化すると怖いから
もう進化せんでええよ
もう進化せんでええよ
61: 25/11/22(土) 23:58:16 ID:O45X
趣味でai彼女開発してるけど
LLMでそれぞれ役割作って演算すれば
それっぽい事は出来ると思うけど
感情を持たせるのは多分不可能だと思う
LLMでそれぞれ役割作って演算すれば
それっぽい事は出来ると思うけど
感情を持たせるのは多分不可能だと思う
62: 25/11/23(日) 00:01:07 ID:gWOJ
人間も本当に自我があるのかな?
63: 25/11/23(日) 00:03:38 ID:9BTU
>>62
我々人間もシナプスの中のタリン分子の伸び縮みで0と1のように推論してるからPCと似た動きはしてる
我々人間もシナプスの中のタリン分子の伸び縮みで0と1のように推論してるからPCと似た動きはしてる
52: 25/11/22(土) 23:43:48 ID:05h4
繁栄するために死を避ける→死を避けるために恐怖が芽生える→繁栄するための感情をまとめる自我が芽生える
やと思う
やと思う
引用元: ・【疑問】AIに自我って産まれないんか?


コメント
コメント一覧
下手に自我に目覚められたら厄介だって偉い人には分かるんですね
コメントする