【发现者网】10月18日消息,微软为了维护社交平台上的健康和谐环境,积极应对偏见、仇恨、和暴力内容问题,于今年5月开始测试其AI内容审核工具Azure AI Content Safety。此工具在经过数月的测试后,如今正式面世。
Azure AI Content Safety是一款经过训练的AI模型,具备识别图片和文本中包含偏见、仇恨、和暴力等负面内容的能力。此外,它还能够理解并分析包含八种不同语言的图片或文本,对所识别内容的严重程度进行评分,为人工审核员提供指引,指出哪些内容需要采取行动。
据发现者网了解,最初,这一内容审核工具被整合到Azure OpenAI服务中,但如今微软将其以独立系统的方式正式推向市场。
微软在其官方博客中表示:“这意味着客户可以将其应用于开源模型和其他公司模型生成的人工智能内容,也可以用于调用部分由用户生成的内容,从而进一步扩大其适用范围。”
微软强调,与其他类似产品相比,Azure AI Content Safety在公正性和上下文理解方面取得了显著的改进。然而,微软也承认,该工具仍然需要依赖人工审核员的数据标记和内容处理。因此,公正性问题最终还是取决于人类的主观判断。鉴于人工审核员可能会受到自身偏见的影响,完全偏见的审查仍然难以做到。