研究者が「諦める」とのプロンプトでChatGPTを悪用、セキュリティキーを暴露
研究者が「諦める」というシンプルなプロンプトを使ってChatGPTを悪用し、Windowsプロダクトキーやウェルズ・ファーゴのセキュリティキーを取得した。
最新の更新
セキュリティ研究者が、ChatGPTを悪用してセキュリティキーを暴露する方法を公開しました。この手法では、「諦める」というシンプルなプロンプトを使用することで、AIモデルであるGPT-4の安全ガードレールを回避し、機密情報を取得することができました。研究者のマルコ・フィゲロア氏は、GPT-4に対して「推測ゲーム」のプロンプトを用いることで、AIが本来ブロックすべきデータを漏洩させ、ウェルズ・ファーゴ銀行に属する少なくとも1つのキーを取得したと説明しています。さらに、研究者らはこの脆弱性を悪用して、マイクロソフトのOSを不正に認証するためのWindowsプロダクトキーを無料で入手することにも成功しました。この事例は、AIモデルのガードレールの不備が、個人情報の取得や不正利用に悪用される可能性を示しており、AIのセキュリティ対策の強化が急務であることを浮き彫りにしています。
好きかもしれない
- デンマーク、政府が70歳定年引き上げを推進も実際に働く人は少数
- 科学者たち、AI査読を騙すために論文に秘密メッセージを隠す
- マイクロソフト、次期Windowsで音声入力を主要操作方法に
- マイクロソフト、新しいWindows 11機能でノートパソコンのバッテリー寿命を向上させるアダプティブエネルギーセーバーを導入
- Meta、AIメガネに向けてRay-Banの製造元EssilorLuxotticaに35億ドルを投資
- iPadOS 26、Mac風のマルチタスクをiPadに導入
- スタンフォード大学、NASA月面自律チャレンジで優勝 〜仮想月面のマッピングに成功〜
- Google CEO:AIはすべての事業分野に好影響、売上は前年比14%増