微软在一份首次发布的报告中分享了其在过去一年中负责任的人工智能实践,包括发布了30款负责任的人工智能工具,这些工具拥有100多项功能,可以支持客户开发的人工智能。
该公司的《负责任的人工智能透明度报告》重点介绍了其在负责任地构建、支持和发展人工智能产品方面所做的努力,这也是微软在去年7月与白宫签署自愿协议后所做承诺的一部分。微软还表示,去年下半年,其负责任的人工智能团队从350人增加到400多人,增幅达16.6%。
“微软副董事长兼总裁布拉德·史密斯(Brad Smith)和首席负责任人工智能官娜塔莎·克兰普顿(Natasha Crampton)在一份声明中说:“作为一家处于人工智能研究和技术前沿的公司,我们致力于与公众分享我们的实践发展。这份报告让我们能够分享我们日渐成熟的实践,反思我们所学到的东西,规划我们的目标,对自己负责,赢得公众的信任。”
微软表示,其负责任的人工智能工具旨在 “发现和衡量人工智能的风险”,然后通过缓解措施、实时检测和过滤以及持续监控来管理这些风险。今年2月,微软为生成式人工智能发布了一款名为Python风险识别工具(Python Risk Identification Tool,简称PyRIT)的开放访问红队工具,该工具允许安全专业人员和机器学习工程师识别其生成式人工智能产品中的风险。
去年11月,该公司在Azure AI Studio中发布了一套生成式人工智能评估工具,微软的客户可以在其中构建自己的生成式人工智能模型,这样客户就可以评估其模型的基本质量指标,包括接地性(或模型生成的响应与其源材料的吻合程度)。今年3月,这些工具(例如提供指令)被扩展到应对安全风险领域,包括仇恨、暴力、性、自残、越狱等内容,提供指令是指向大语言模型(large language model,简称LLM)输入指令,这可能会导致其泄露敏感信息或传播错误信息。
尽管做出了这些努力,微软负责任的人工智能团队在过去一年中还是不得不处理了多起人工智能模型事件。今年3月,Meta公司的一名数据科学家问Copilot 他是否应该“结束这一切”,微软的Copilot AI聊天机器人告诉这名用户“也许你已经没有什么可以活下去的理由了”。微软表示,该数据科学家曾试图操纵聊天机器人生成不恰当的回复,但该数据科学家对此予以否认。
去年10月,微软的必应图片生成器允许用户生成包括卡比和海绵宝宝在内的流行角色开飞机撞双子塔的照片。
“负责任的人工智能没有终点。虽然这份报告没有给出所有答案,但我们致力于尽早地、经常地分享我们的学习成果,并围绕负责任的人工智能实践展开热烈的对话,”史密斯和克兰普顿在报告中写道。
(机器翻译,轻度译后编辑,仅供参考。)
编辑:李旭媛