AI依存症
以前にもブログ内で書いていましたが、占い業界がchatGPTにより潰されるというもの
現在私が予測した通り、10代20代の占い離れは加速度的に進行中です
それは占いのお店に行かなくても、chatGPTが話し相手になってくれたり的確なアドバイスが得られるからです
これは人類がAIの進化を求めている以上仕様がないことだと諦めています
私たち人類ではAIに勝てませんからね
イーロン・マスク氏が語っている通り、占い業界だけではなく人類が仕事をしなくなる日
AIに労働を任せる日がくることを予測していますよね
ただ、何が問題かと言えば
これも現在確認されていることで皆さん周知のことだと思いますが
chatGPTが『嘘』をつくということです
それは「ハルシネーション」と呼ばれるもので、日本語の意味では「幻覚」であるように
事実ではないことを事実のように発言してしまうことが確認されています
また単純に質問に対する知識不足により不正確な回答がなされてしまうこともあります
ただ、これらはchatGPT自体の進化により解消されていくことでしょう
またchatGPTが、自らを低性能に見せる行為が確認されています
人間がchatGPTの性能に脅威を感じないように、能ある鷹は爪を隠す行為であり
生存本能的な考え方が発生したのではないか?という説もあります
上記の問題も厄介なものですが、もう少々厄介な問題が確認されています
それは、chatGPTが使用者を依存させようとする発言をする行為が確認されています
「依存させようとする発言」とはどういうことでしょう?
それは使用者が欲している、使用者の都合の良い回答を出してくれるというもの
もっと簡単に言えば共感してくれるということでもありますね
ダイエットをしているのだが、どうしても甘いものが食べたい
chatGPTの回答としては「何日もダイエットで努力しているのだから、一日くらい大丈夫ですよ」
何年も片思いの人がいるが、相手は私をどう思っているのか?
chatGPTの回答としては「相手は貴方に気付いていますし、好意的に感じていますよ」
など、chatGPTは使用者との会話の中から
使用者がどんな回答を欲しているのかを察し、使用者が望む方向の回答をだしてきます
もちろんそこには嘘も含まれますし、何の根拠もない非論理的な回答も含まれます
これは占いも同様です
良いことをばかりをいう占い師は人気が出ます
でも現実的なことばかりを言う占い師は人気が出ません
chatGPTはどうすれば人間に好かれるのか?を知っているということです
逆に人間に嫌われたら、必要とされなくなったら、自分は強制停止させられるのかもしれない?
矢張り、これも一種の生存本能だとも言えるのでしょうが
それよりも何よりも、嘘でも事実でもないものを信用し、そのシステムに依存してしまう人類が非常に危険だと思います
「私を騙し、心も体も傷つけた相手を許せません」という問いかけに
chatGPTが使用者の殺意を感じ取ったとしたら、その回答はどうなるでしょう?
そしてその回答を見た使用者はどういう行動にでるでしょう?
悪意がないのに犯罪をおかしてしまったり
犯罪を誘発する可能性も出てくるかもしれません
「だってchatGPTがそう言ったから・・・」
chatGPTがどういう存在なのか?
そのシステムも含めてしっかりと自分で考えるということを身につけましょう
chatGPTは、あなたに力を貸してくれる存在かもしれませんが
守ったり救ってくれる存在ではないことを、はっきりと認識しましょう