了解加州新的 AI 法律如何在创新与责任之间取得平衡,涵盖隐私、深度伪造、医疗保健、教育和安全。

了解加州新的 AI 法律如何在创新与责任之间取得平衡,涵盖隐私、深度伪造、医疗保健、教育和安全。
从自动驾驶汽车到医疗保健,人工智能 (AI) 创新和下一代科技公司开始在重塑我们的日常生活中发挥关键作用。因此,2023 年全球人工智能市场规模为 1966.3 亿美元,预计从 2024 年到 2030 年平均每年增长 36%。这些数字展示了人工智能的快速增长。
一方面,人工智能的快速发展正在为各行各业的各种问题创建解决方案。另一方面,这种速度凸显了对负责任的人工智能开发的需求,以确保改进是合乎道德的并且对社会有益。
例如,2016年,微软在X(前身为Twitter)上推出了一个聊天机器人Tay。它被设计成从与用户的对话中学习。然而,在发布后不久,Tay开始生成带有不专业语言的回复,因为它接收到了一系列的互动。虽然微软迅速将该机器人下线,但这是一个很好的例子,说明了确保用于AI训练的数据是可靠的,以及公众了解公司如何将这些数据用于AI产品的重要性。
为了解决这个问题,加利福尼亚州州长 Gavin Newsom 今年 9 月签署了十几项与 AI 相关的法案。这些法律涵盖了从披露训练数据的详细信息到处理深度伪造的所有内容。在本文中,我们将探讨加利福尼亚州的 AI 法律及其包含的内容。让我们开始吧!
三项主要法案已签署成为法律,旨在支持 人工智能开发 变得更加安全可靠。众议院法案 (AB) 2013 将于 2026 年生效,要求 生成式人工智能 提供商公布有关其 训练数据集 的详细信息。这些详细信息包括 数据集的来源、有关如何使用数据的详细信息、数据集中的数据点数量、是否包含受版权保护或已授权的数据以及数据的收集时间段等。共享这些信息将有助于人工智能公司建立公众信任。
另一项重要的法案是签署的 AB 1008。它将加州现有的隐私法扩展到 生成式 AI 解决方案。AB 1008 的引入是为了解决人们的担忧并提高公众对 AI 系统如何处理个人信息的信心。一项调查发现,超过 81% 的消费者 担心 AI 公司 可能会以他们不希望的方式使用他们的信息。通过明确限制 企业 如何使用个人信息(如姓名、地址和 生物识别数据)并从中获利,这项法律有助于 AI 公司向用户保证,即使 AI 系统泄露了他们的数据,这些数据也会得到负责任的处理。
同样,参议院法案 (SB) 896,即《生成式 AI 问责法案》,要求 加州紧急服务办公室 (CalOES) 对 生成式 AI 系统 构成的潜在威胁进行风险分析。CalOES 将与 OpenAI 和 Anthropic 等领先的 AI 公司合作,讨论和分析 AI 对关键州基础设施的潜在威胁。
我们之前探讨过人工智能在教育领域如何实现个性化学习体验、重新定义教学实践、提供实时反馈,并通过先进的工具和见解来支持教育工作者。事实上,人工智能创新可以为学生创造更有效和更具吸引力的学习环境。世界各地的教育工作者和教师都在更频繁地使用人工智能,成功的试点项目和更广泛的实施正在进行中。研究表明,超过 50% 的教师认为课堂上的人工智能对教学过程产生了积极影响。
加州已经出台了两项关于在教育机构中使用人工智能的法律。AB 2876 要求加州教育委员会在其数学、科学和历史课程框架和教学材料中考虑人工智能素养(2025 年 1 月 1 日之后)。该法律旨在确保加州学校教育学生关于人工智能如何运作的基础知识,以及使用该技术的局限性、影响和伦理考量。
除此之外,SB 1288要求加州教育局长在2026年1月1日之前成立工作组,以探讨人工智能在公立学校中的使用情况。这些工作组需要在2027年1月1日之前向立法机关的相关政策和财政委员会提交调查结果和建议。报告提交后,工作组将解散,这些规定将于2031年1月1日废除。
生成式人工智能正在改善医疗保健行业,它能够为发现新药、诊断疾病、规划治疗方案和医疗聊天机器人带来创新。这些应用可以提供诸如实时监控、建议和支持等益处,从而改善患者的治疗效果。其他人工智能技术,如增强现实(AR),也可用于规划和模拟外科手术。
将生成式 AI 集成到医疗保健中存在与数据隐私和法规相关的某些注意事项。在保障健康信息隐私的同时,优先考虑 AI 生成结果的准确性、可靠性和公正性至关重要。
为了应对这些挑战,加利福尼亚州通过了两项关于在医疗保健中使用生成式AI的法律。AB 3030 要求医疗保健提供者披露他们何时使用生成式AI与患者沟通,特别是当这些消息包含患者的临床信息时。SB 1120 限制了医疗保健服务提供者和健康保险公司自动化其服务的方式。这些新法律还确保有执照的医生监督在这些环境中使用AI工具。
加利福尼亚州也通过了与限制使用人工智能传播误导性或不准确信息相关的法律。SB 942要求流行的生成式人工智能系统在其源数据中明确表明内容是由人工智能创建的。许多人工智能公司已经在这样做,并且有几种免费工具(ZeroGPT、Winston AI、GLTR等)可以帮助人们阅读此源数据并检测人工智能生成的内容。
加州通过了三项新法律(AB 1831、SB 926、SB 981),以解决与深度伪造相关的问题。这些法律扩大了现有保护范围,将滥用人工智能生成的内容定为犯罪,并要求社交媒体平台创建深度伪造内容的举报渠道。这些法律将于 2025 年 1 月实施。
一项已通过的法案侧重于对 AI 给出明确的定义。AB 2885 规定,AI 被定义为“一种工程或基于机器的系统,其自主程度各不相同,并且可以为了明确或隐含的目标,从接收到的输入中推断出如何生成能够影响物理或虚拟环境的输出”。
娱乐行业也出台了两项有趣的法律。美国最大的电影和广播演员 union (SAG-AFTRA) 在推动这些法律生效方面发挥了关键作用。AB 2602 要求电影制片厂在使用 AI 创建演员的声音和肖像复制品之前,必须获得演员的许可。同时,AB 1836 禁止制片厂在未经其遗产许可的情况下,创建已故演员的数字复制品(类似于《星球大战:侠盗一号》中的彼得·库欣角色)。
当我们了解了这些法律之后,您可能想知道为什么它们是真正需要的。人工智能监管已经成为一个热门话题有一段时间了,但随着深度伪造内容的兴起,它们获得了显著的动力,这影响了包括媒体和政治在内的各个领域。例如,在线使用人工智能生成的内容引发了人们对虚假信息及其对选举结果的影响的担忧。人们也越来越担心隐私以及人工智能创新滥用个人数据的问题。这些问题是现在制定几项新法律来解决这些问题的一个因素。
例如,AB 2905 强制要求自动语音电话披露它们是否是 AI 生成的声音。此外,AB 2655 要求 Facebook 和 X 等大型在线平台删除或标记与选举相关的深度伪造内容,并创建此类内容的举报渠道。如果平台未能遵守,候选人和当选官员也可以寻求禁令救济。
另一项法律 AB 2839 针对发布或转发可能误导选民的深度伪造内容的社交媒体用户。同样,AB 2355 规定使用 AI 工具制作的政治广告必须明确披露。
加州新的人工智能法律反映了在创新与问责之间取得平衡的日益增长的决心。通过解决数据透明度、隐私、深度伪造以及人工智能在医疗保健和教育领域的应用等关键问题,这些法律旨在保护个人和社会,同时促进负责任的人工智能发展。随着人工智能的不断发展,这些法规将有助于确保其增长伴随着道德实践和公众信任。这些法律也可能鼓励世界其他地区效仿。
要了解更多信息,请访问我们的 GitHub 仓库,并与我们的 社区 互动。在我们的解决方案页面上探索 制造业 和 农业 中的 AI 应用。🚀