英国政府发出警告,若是公司机构将人工智能聊天机器人应用到其业务中,则存在网络安全风险。(图片来源:LIONEL BONAVENTURE/AFP/Getty Images)
【看中国2023年8月31日讯】(看中国记者东辰雨编译/综合报导)2022年11月,OpenAI推出人工智能(AI)聊天机器人ChatGPT风靡全球,随之所出现的风险引起各国关注。英国政府发出警告,若是公司机构将人工智能聊天机器人应用到其业务中,则存在网络安全风险。
人工智能聊天机器人存在网络安全风险
英国路透社报导,8月30日,英国国家网络安全中心(National Cyber Security Centre,NCSC)发表博客文章(blog post)警告,科技专家尚未解决与可以生成人类发音交互的算法(generate human-sounding interactions)相关的潜在安全问题,这种算法又称为大型语言模型(large language models,LLM),可能会带来网络安全风险。
英国国家网络安全中心表示,科技专家和研究人员已经多次找到了引导控制人工智能聊天机器人的方法,通过向聊天机器人提供恶意命令或欺骗它们绕过内置的防护系统。例如,银行使用的人工智能聊天机器人可能会被黑客诱骗进行未经授权的交易。
路透社与伊普索(Ipsos poll)最近一项民意调查发现,许多企业员工正在使用人工智能聊天机器人ChatGPT 等工具来帮助完成基本工作人物,例如起草电子邮件、总结文档和进行初步调查研究。约10%的受访者表示,他们的老板明确禁止使用外部人工智能工具,而25%受访者不知道他们公司是否允许使用这种人工智能技术。
人工智能的安全影响仍然是全球各国关注的焦点,美国和加拿大当局表示,他们已经发现黑客在利用人工智能聊天机器人。
网络安全公司RiverSafe首席技术官奥塞洛卡·奥比奥拉(Oseloka Obiora)表示,如果企业没有引入必要的检查和防护措施,那么人工智能融入商业竞争中将产生“灾难性后果”。
为全球首部AI法案铺路 欧盟提出生成式AI新法规
政治新闻网站Politico报导,根据获得的欧盟执委会4页文件内容显示,欧盟执委会针对关于使用ChatGPT、Bard等在内的生成式AI工具制定了职员指南。新职员指南主要目的是“帮助职员评估在线可使用的生成式AI工具的风险和局限性,并为他们在委员会工作活动中安全使用设定条件。”
除了概述AI功能之外,还制定了委员会职员使用此类工具是应遵守的5项主要规定,包括:使用生成式AI工具时不得泄露不属于公共领域的信息;要意识到AI存在可能不正确或带有偏见的回应;思考AI是否可能侵犯知识产权;官方公文禁止复制粘贴AI生成的内容;在处理“关键和时间敏感的流程”时避免使用AI工具。
《人工智能法案》是欧盟委员会于2021年4月21日提出的一项法规,旨在为AI引入一个共同的监管和法律框架。它的范围涵盖所有部门(军事除外),以及所有类型的AI。作为产品监管的一部分,该提案不赋予个人权利,而是规范AI系统的提供者,以及以专业身份使用它们的实体。
一些特别关键的应用已经需要根据现有欧盟法律监督合格评定,例如医疗设备,供应商根据AI法案要求进行的自我评估是否会被根据该法规进行评估的公告机构考虑,例如医疗器械法规。该提案还将禁止某些类型的应用程序,即远程生物特征识别、潜意识操纵人员的应用程序、以有害方式利用特定群体弱点的应用程序以及社会信用评分。对于前三个,提出了执法的授权制度背景,但社会评分将被完全禁止。该法案还提议引入一个欧洲人工智能委员会,该委员会将鼓励国家合作并确保法规得到遵守。
路透社报导,欧盟AI法案近期提出有关ChatGPT等AI生成工具的新法规,AI生成工具公司必须披露任何用于开发其系统的受版权保护的知识产权,新法规可能为欧盟AI法案成为世界上第一部管理AI技术综合法律铺平道路。
2年前,欧盟委员会开始起草有关AI的法案,用以规范新兴的AI技术。在OpenAI的AI聊天机器人ChatGPT发布之后,AI技术的投资和受欢迎程度都出现了激增现象。
欧洲议会成员同意将《人工智能法案》提案推进到下一阶段,即三方会议。在此期间,欧盟立法者和成员国将讨论该法案的最终细节。
根据提案,AI工具将根据其感知风险级别进行分类:从最低到有限、高和不可接受。令人担忧的AI技术领域可能包括生物识别监控、传播错误信息或歧视性语言。
虽然高风险的AI技术工具不会被禁止,但需要在使用操作过程保持高度透明。例如,ChatGPT或图像生成器Midjourney等AI生成式工具公司还必须披露用于开发其系统的任何受版权保护的知识产权。
报导引述熟悉内情的消息人士透露,欧盟有关AI的新法规条款是在过去2周内拟定的。欧洲委员会部分成员最初提议完全禁止将受版权保护的知识产权用于训练生成式AI模型,但由于透明度要求而被放弃。
来源:看完这篇文章觉得
排序