
米国では、16歳の息子を自殺した役割を果たしたとChatGptを非難している2人の親がOpeniiを訴えています。チャットから、IAは彼の考えを止めていないだけでなく、彼が自分の命を奪う方法について具体的なアドバイスを与えることさえ、彼らを強化したようです。
さて、大丈夫、それは海の反対側で起こりました…しかし、私はあなたに尋ねます:それがイタリアで起こったなら、私たちは準備ができていますか?今日、多くの人が宿題だけでなく、一種のデジタルフレンドとしてもChatGptを使用しているからです。そして、ここにもう1つの問題があります:スティグマ。今日でも心理学者に行くことは、多くの人が「弱い」または「病気の」ものと見なされているため、ティーンエイジャーが実在の人物から助けを求めるよりも、ボットで蒸気を放つことを好むことを想像するのはそれほど馬鹿げていません。
そして、問題は次のとおりです。男の子にとって唯一のリスニングスペースが人工知能になるとどうなりますか?私たちはそれが単なるテクノロジーの問題であると考える必要がありますか、それとも助けを求める人がしばしば判断されるという事実よりも、それは文化的な問題ですか?そして、明日、そのような事件がここで起こった場合、私たちは誰に責任を負いますか:IAまたは男の子を放っておき続けている会社ですか?
