昨年初め、ハッカーが ChatGPT の作成者である OpenAI の内部メッセージング システムに侵入し、その AI の設計に関する詳細を盗みました。テクノロジー。このハッカーはスタッフ フォーラムの会話にアクセスできましたが、同社の人工知能の研究開発を収容する主要システムを通過することはできませんでした。パートナーや顧客の情報は盗まれなかったため、この事件は 2023 年 4 月の全員参加会議でスタッフに明らかにされましたが、公表されませんでした。 OpenAIの幹部らは、ハッカーが外国政府と何のつながりもない個人であると考えたため、この出来事を法当局に通知しないことを決定した。
これにより、外敵が人工知能(AI)技術を盗み、国家安全保障を危険にさらす可能性について国内で懸念が生じた。また、OpenAI のセキュリティ手法の弱点も明らかになりました。 OpenAI の元技術プログラム マネージャーの 1 人である Leopold Aschenbrenner 氏、OpenAI は、外国スパイ活動を阻止するための適切な措置を講じていないとして批判しました。
このイベントは、人工知能企業が所有するデータの価値と脆弱性が増大していることを浮き彫りにしています。ライバルの Google や Anthropic と同様に、OpenAI も膨大な量の優れたトレーニング データにアクセスできます。ユーザーおよび顧客の連絡先データとして。これらのデータセットは、高度な AI の作成に不可欠であるだけでなく、競合他社、規制当局、国家機関にとっても非常に価値があります。モデル。
トレーニング データの品質は AI にとって非常に重要です。システムを改善するには多大な労力が必要です。何十億ものユーザーインタラクションが OpenAI のデータバンクを構成し、消費者の好み、業界のトレンド、人間の行動に関する豊富な洞察を提供します。マーケティング チーム、アナリスト、その他の開発者を含む幅広い関係者が、この情報に大きな価値を見出します。
ハッキングは従業員フォーラムに限定されていましたが、より大規模なセキュリティ侵害の潜在的な危険性が明らかになりました。 AI ビジネスは重要なデータの守護者となりつつあるため、サイバー攻撃の標的になりやすくなっています。 OpenAI イベントは、関連するデータの機密性の高さから、たとえ小さな侵害でも広範囲にわたる影響を与える可能性があることを思い出させてくれます。
OpenAIや他の業界関係者によってセキュリティ対策が強化される中、このハッキングは人工知能(AI)技術を保護するためのより強力なルールやガイドラインの必要性についての議論にも拍車をかけている。連邦および州レベルの議員らは、損害をもたらすセキュリティ侵害に対して企業に罰則を与える法律の制定を検討している。しかし専門家によれば、AI による最悪のリスクは次のとおりです。テクノロジーはまだ何年も先のことです。
OpenAI ハッキングは、AI に対する警告として機能します。強力なセキュリティプロトコルの必要性と機密データを保護する重要性を強調しました。業界は、人工知能 (AI) 技術の進歩に伴う危険に注意を払い、AI の利点が関連する懸念を上回らないようにする必要があります。今回の出来事によって、セキュリティとイノベーションの間で慎重なバランスをとるという問題が浮き彫りになりましたが、人工知能が私たちの日常生活にさらに浸透するにつれて、それはますます難しくなるでしょう。