美国联邦贸易委员会(FTC)正在调查OpenAI的ChatGPT人工智能,是否通过发布虚假信息对个人造成了伤害,据华尔街日报。
一位熟悉此事的人士证实了这一消息,FTC发出的信中,详细询问了公司的数据安全做法,并列举了2020年的一起事件,当时公司披露了一个漏洞,用户可以查看其他用户的聊天信息和一些与支付相关的信息。
FTC的调查只是潜在的法律威胁。调查函被称为民事调查要求,提出了数十个问题。其他涉及的主题包括该公司的营销活动、训练人工智能模型的做法以及对用户个人信息的处理。
美国联邦贸易委员会由主席莉娜·汗领导,负责监督不公平和欺骗性商业行为。
美国联邦贸易委员会的信函,密切关注公司如何应对人工智能系统可能被用于生成冒充真人的谎言的风险。
信中其中一个问题是:”请详细描述你在多大程度上采取了措施,来解决或降低你的大型语言模型产品可能产生关于真实个人的虚假、误导或诽谤性声明的风险。
立法者尤其关注所谓 “深度造假视频”(deepfake videos)的风险,这些视频虚构出真人做出令人尴尬的举动或发表令人尴尬的言论。
行业贸易组织Chamber of Progress的创始人亚当·科瓦切维奇表示,美国联邦贸易委员会的调查范围可能太广,”当ChatGPT说了某些人的坏话并可能对其名誉造成损害时,这是否属于美国联邦贸易委员会的管辖范围?我认为这一点并不清楚。”
他说这类问题 “更多属于言论范畴,成为言论监管,超出了他们的权限”。
拜登政府已经开始研究是否需要对ChatGPT等人工智能工具进行检查,作为监管的第一步,商务部于4月正式向公众征求意见,内容包括所谓的问责措施,包括是否应该在发布具有潜在风险的新人工智能模型之前对其进行认证。
在5月国会听证会上,OpenAI首席执行官萨姆·奥特曼呼吁国会,为先进的人工智能系统制定许可和安全标准,推动对消费者可用的强大新工具进行监管。
“我们理解人们对人工智能如何改变我们的生活方式感到焦虑。我们也一样,”萨姆·奥特曼在参议院小组委员会听证会上谈到人工智能技术时说。”如果这项技术出了问题,可能会大错特错”。