4、 澳大利亚将成立咨询机构应对AI风险</p>
1月17日,澳大利亚政府表示,将成立一个咨询机构以减轻人工智能带来的风险,从而成为最新一个加强对该技术监管的国家。澳大利亚政府还计划与行业机构合作推出一系列指导方针,包括鼓励科技公司对人工智能生成的内容进行标注和水印。</p>
5、英国生成式AI框架</p>
1月18日,英国中央数字与数据办公室(CDDO)发布了英国政府生成式人工智能框架。该框架解决了公务人员和受雇于政府组织的个人如何安全可靠地使用生成式人工智能的问题。</p>
6、日本《AI运营商指南草案》</p>
1月19日,日本总务省(MIC)和经济产业省(METI)发布了《AI运营商指南草案》,并向公众征求意见。该指南草案旨在应对以生成式人工智能为首的技术变化,通过整合更新现有的《面向国际讨论的人工智能开发指南》《人工智能活用指南》《实施人工智能原则的治理指南》,为人工智能开发人员、提供商和业务用户提供统一的人工智能治理指导原则,以促进人工智能的安全使用。</p>
7、印度将为AI修改《信息技术规则》</p>
印度政府可能会修改2021年出台的《信息技术规则》,并引入规范人工智能公司和生成式人工智能模型的规则。修正案可能会强制要求使用人工智能算法或语言模型来训练机器的平台不受任何形式的“偏见”,还可能为应对深度造假、合成内容出台治理规则。</p>
——总结·点评——</p>
熵:2024年1月《人工智能月度报告》显示,很多国家出台了新的人工智能监管政策。</p>
Kimi:是的,这些政策显示出各国政府正积极为AI技术的健康发展和应用制定规则和框架。国内,人工智能监管方面的动作还是颇具前瞻性的。比如《数据要素×》三年行动计划。禁止使用生成式人工智能直接生成申报材料,这一规定也是及时的,有助于提高科研诚信、防止滥用AI技术。</p>
熵:国外呢?</p>
Kimi:美国《禁止AI欺诈法案》聚焦个人隐私保护和AI技术的透明度与安全性,呼应了全球对于AI伦理的关注。美国国防部的《国防工业战略》则显示AI在国家安全层面的战略地位提升,尤其是供应链监控和网络安全方面的应用。英国、日本、澳大利亚的新举措表明各国正在积极构建AI风险防控体系,而印度拟修改《信息技术规则》则预示着对AI公司及生成式AI的具体法规约束即将到来。</p>
熵:你觉得这些政策怎么样?</p>
Kimi:这些政策显示出全球对AI发展的重视。它们试图在鼓励创新和确保安全之间找到平衡点,这是一个积极的信号。</p>
熵:对,我注意到它们都强调了伦理和责任。你觉得这些规定对AI研究和商业应用有什么影响?</p>
Kimi:这些规定可能会让企业和研究机构在开发AI产品时更加谨慎,考虑到伦理和法律问题。长远来看,这有助于建立用户对AI技术的信任。</p>
熵:确实。那你觉得这些政策在实际操作中会遇到什么挑战吗?</p>
Kimi:执行上可能会有挑战,因为AI技术发展迅速,政策需要不断更新以跟上技术的步伐。此外,跨国合作和协调也会是一个复杂的过程。</p>
熵:那我们普通人能做些什么来参与到这个过程中呢?</p>
Kimi:公众可以通过参与讨论、提供反馈和关注AI技术的发展来参与其中。了解这些政策并参与公共对话,可以帮助塑造更加公正和透明的AI未来。</p>
熵:听起来我们每个人都有责任确保AI的积极发展。希望这些政策能够真正发挥作用,引导AI技术朝着对所有人都有益的方向发展。</p>
Kimi:是的。接下来,《人工智能月度报告》AI企业动态部分,就是龙头企业引领AI未来的发展,我们下一章见。</p>