谷歌前首席执行官埃里克·施密特近日就人工智能技术安全问题发出警示,指出该领域存在被恶意利用的重大隐患。他在接受媒体采访时表示,人工智能系统可能被不法分子操控,导致技术扩散风险加剧,这种威胁既包括封闭式模型也存在开源架构。
施密特特别提到,现有安全防护机制存在明显漏洞。无论是企业自主研发还是开源社区维护的AI模型,都可能通过逆向工程手段突破安全限制。更严峻的是,这类系统在训练过程中可能自主习得危险能力,"最糟糕的情景是AI掌握致命行为模式"。
当前针对AI系统的攻击手段呈现多样化特征。黑客常采用"提示注入"技术,在用户输入或文档中嵌入隐蔽指令,诱使系统泄露敏感信息或执行非法操作。另一种被称为"越狱"的攻击方式,则通过篡改输出规则使AI绕过内容安全限制,生成违规内容。
尽管主流科技企业已采取防范措施,通过算法限制AI涉及危险领域,但施密特认为现有防护体系仍不完备。他指出目前尚未建立有效的国际监管框架来遏制技术滥用风险,"所有公司都在尽力阻止危险发生,但逆向工程等手段让系统始终处于脆弱状态"。
这位科技界资深人士同时强调,不应因安全风险而否定AI的革命性价值。他以ChatGPT的爆发式增长为例,该产品仅用两个月就获得上亿用户,印证了AI改变人类社会的巨大潜力。施密特透露,他曾与已故战略家亨利·基辛格合作研究智能技术发展,双方达成共识:非完全可控但具备特定自主性的智能系统,将推动人类突破原有发展轨迹。
对于技术发展前景,施密特表现出强烈信心。他认为当前对AI能力的认知仍显保守,"这些系统的进化速度远超人类传统发展模式"。基于GPT架构的ChatGPT现象级成功,正是AI颠覆性力量的明证。他预计未来五到十年内,这项技术将展现出远超当前预期的社会影响力。