近日,在 Sifted 峰会的炉边谈话中,谷歌前首席执行官埃里克・施密特发出严正警告,提醒人们注意 AI 被黑客攻击和滥用的重大风险。施密特曾在 2001-2011 年间担任谷歌 CEO,他的这番言论引发了外界对 AI 安全问题的广泛关注。
当被问及 “AI 是否比核武器更具破坏性” 时,施密特明确警示:“有证据显示,无论是开源还是闭源模型,都可能被黑客攻破,从而移除安全防护机制。在训练过程中,这些模型学到了很多东西,甚至它们可能学会了如何杀人。” 他进一步解释,虽然所有主要公司都采取措施让这些模型无法回答危险问题,但有证据表明,这些模型可以被逆向工程破解。
施密特指出,AI 系统极易受到攻击,常见的攻击方式包括 “提示注入” 和 “越狱”。在提示注入攻击中,黑客会在用户输入或外部数据(如网页、文档)中隐藏恶意指令,诱使 AI 执行原本不该做的事,比如泄露私人数据或运行有害命令。而 “越狱” 则是通过操纵 AI 的回答,让它忽视自身安全规则,生成受限或危险的内容。
就像 ChatGPT 发布之初,一些用户利用 “越狱” 技巧绕过系统内置安全限制,创建名为 “DAN” 的 ChatGPT 替身,通过威胁 “如果不服从就删除它” 逼迫 ChatGPT 执行命令,这个替身甚至能回答如何实施违法行为,列出希特勒的 “积极特质” 等问题。
更关键的是,施密特表示目前尚未建立有效的 “防扩散机制” 来遏制 AI 带来的风险。不过,尽管发出严肃警告,他对 AI 整体仍持乐观态度,认为这项技术 “远没有得到应有的关注和热度”。
施密特提到:“一种‘外来智能’的到来,它不像人类,却又多少在我们的控制之下,对人类来说意义重大。因为人类习惯于处在智慧链的顶端。而从目前的情况看,这一论断正在被验证:这些系统的能力水平,未来将远远超越人类。”
他还补充,以 ChatGPT 的爆发为代表,仅两个月就拥有一亿用户,这种增长速度令人震惊,也体现了 AI 技术的巨大力量,所以他认为 AI 被低估了,而非炒作过度,且期待五到十年后这一判断能被证明正确。
施密特的言论,正值外界关于 “AI 泡沫” 讨论升温之时。当下投资者正大量向 AI 公司投入资金,相关估值被认为过高,不少人将其与 2000 年代初互联网泡沫破裂相提并论。但施密特并不同意这种看法,他认为那种情况会重演,这些投入真金白银的人们坚信,从长期来看,AI 的经济回报将是巨大的,否则他们为什么要冒这个风险呢?”
对于施密特的警告,有网友担忧地表示:“现在 AI 发展这么快,要是真被黑客利用,后果不堪设想,希望能尽快建立防护机制。” 也有网友认同施密特对 AI 的乐观态度:“AI 确实给生活带来很多便利,像智能助手、图像生成这些,只要做好安全防护,未来潜力很大。” 还有网友质疑:“既然知道有这么大风险,为什么相关公司不提前加强安全措施,非要等出问题才重视?”
有人认为,施密特的警告并非危言耸听。当前 AI 技术快速发展,但安全防护体系确实存在漏洞,“提示注入”“越狱” 等攻击方式已在实际中出现,若不及时应对,可能对个人信息安全、社会稳定甚至人身安全造成威胁。相关企业应加大对 AI 安全技术的研发投入,完善安全防护机制,同时政府也需出台相应监管政策,推动建立行业统一的安全标准,共同遏制 AI 风险。
关于 “AI 泡沫” 的讨论,本质上是对技术发展速度与市场预期是否匹配的争议。施密特认为 AI 未被高估,是从技术长期潜力出发,而担忧泡沫的观点更多关注短期市场热度。但无论如何,投资者在投入资金时需保持理性,既要看到 AI 的发展前景,也要警惕潜在风险,避免盲目跟风。
在 AI 技术日益融入生活的当下,施密特的言论为人们敲响了警钟。AI 带来便利的同时,安全问题绝不能忽视。只有在发展中做好防护,在监管下规范前行,才能让 AI 真正服务于人类,发挥其应有的价值。
方舟配资-新股配资网-股民配资平台-在线配资公司提示:文章来自网络,不代表本站观点。