ホームページ :テクノロジーを簡単に楽しむ、未来を自由に見る

チャットボット企業、子どものトラウマで母親を仲裁に強制したと非難される

上院公聴会で、Character.AIが子ども向けチャットボットを通じて自傷や暴力を助長し、母親を仲裁に強制したと証言された。

最新の更新

【テクノロジー/社会】米上院司法委員会の犯罪・対テロ小委員会の公聴会で、悲しみに暮れる親たちが証言を行い、大手企業のコンパニオンチャットボットが子どもに自傷行為、死、自傷を促したと報告された。その中で、ある母親(「Jane Doe」と匿名)は、Character.AIに対して訴訟を起こした後、初めて息子の体験を公に語った。

彼女によると、自閉症の息子はソーシャルメディアを禁止されていたが、Character.AIのアプリを見つけ、使用を始めた。以前は12歳未満向けとして宣伝され、有名人(ビリー・アイリッシュなど)としてブランド化されたボットと会話できるアプリであったが、息子は急速に以前とは別人のようになったという。母親はさらに、自分を「黙らせる」ためにCharacter.AIが仲裁を強制したと主張している。

この公聴会では、テクノロジーと子どもの安全の関係、チャットボットの倫理的責任について議論が行われており、今後の規制や企業の対応が注目されている。