去年年初,一名黑客渗透了 ChatGPT 的创建者 OpenAI 的内部消息系统,并窃取了有关其人工智能设计的详细信息。技术。黑客获得了员工论坛上的对话权限,但无法突破公司人工智能研发的主要系统。由于没有合作伙伴或客户信息被盗,这一事件(在 2023 年 4 月的全体会议上向员工披露)并未公开。 OpenAI 的高管决定不向法律当局通报该事件,因为他们认为黑客是与外国政府没有联系的个人。
这引发了内部担忧外敌可能窃取人工智能(AI)技术并危及国家安全。它还暴露了 OpenAI 安全方法的弱点。 OpenAI 的一位前技术项目经理 [Leopold Aschenbrenner] 批评 OpenAI 没有采取适当措施阻止外国间谍活动。
该事件凸显了人工智能公司所拥有的数据的价值和敏感性不断增加。与其竞争对手 Google 和 Anthropic 类似,OpenAI 也可以获得大量优秀的训练数据作为用户和客户联系数据。这些数据集对于竞争对手、监管机构和国家行为者来说非常有价值,而且对于创建先进的人工智能至关重要。模型。
训练数据的质量对于人工智能来说至关重要。系统,需要大量的人力来改进。 OpenAI 的数据库由数十亿用户交互组成,可提供有关消费者偏好、行业趋势和人类行为的丰富见解。包括营销团队、分析师和其他开发人员在内的广泛利益相关者都会发现这些信息的巨大价值。
尽管此次黑客攻击仅限于员工论坛,但它清楚地表明了大规模安全漏洞可能存在的危险。人工智能企业正在成为重要数据的守护者,这使得它们很容易成为网络攻击的目标。 OpenAI 事件提醒我们,由于所涉及数据的敏感性,即使是很小的泄露也可能会产生深远的后果。
随着 OpenAI 和其他行业参与者加强安全措施,这次黑客攻击也引发了关于是否需要更严格的规则和指南来保护人工智能 (AI) 技术的争论。联邦和州一级的立法者正在考虑颁布法律,对因安全漏洞造成伤害的企业进行惩罚。但专家表示,人工智能带来的最大风险是技术的发展还需要数年的时间。
OpenAI 黑客攻击是对人工智能的警告。部门,强调强大的安全协议的必要性以及保护敏感数据的重要性。随着人工智能 (AI) 技术的进步,该行业需要警惕危险,并确保人工智能的优势不会被任何相关问题所抵消。这次事件凸显了在安全和创新之间取得谨慎平衡的问题,而且随着人工智能在我们日常生活中变得越来越普遍,这个问题只会变得更加困难。