美国兰德公司9月29日发表题为《人工智能的侵权责任与治理》的报告,针对人工智能治理提出六条建议。一是主动治理,确立行业标准和安全要求,减少对诉讼等被动措施的依赖,增强公众对人工智能系统的信任。二是行业特定监管,针对人工智能应用的不同行业(如医疗、保险等)特定需求设计监管规则,确保治理框架具备相关性、有效性,并能应对行业特有风险。三是设立针对具体案件的专门法庭,通过法庭机制处理监管未能覆盖或特殊情境下的责任争议,在纠纷解决中保持灵活性,弥补监管不足。四是监管沙盒,构建受控测试环境,使人工智能应用可在标准化评估体系下进行试验,推动在监管协作中实现负责任的创新并控制风险。五是安全港机制,为符合既定治理和安全标准的组织提供法律保护,激励负责任的行为,降低开发人员和部署人员的法律责任风险。六是共同责任,在人工智能生态系统中分配责任,确保所有利益相关者共担责任,通过集体责任机制减少危害。(编译自美国兰德公司网站)