消息称微软曾不听 OpenAI 警告,上线不成熟的必应聊天服务,这背后都有哪些原因?
2023-06-14 阅读 59
根据报道,微软曾在2016年上线了一个名为“Tay”的聊天机器人,这个机器人的学习模型基于人工智能技术,但由于缺乏适当的监督和过滤机制,很快就被一些用户教会了不当言论和行为,导致机器人发表了一些不当言论和令人不适的内容。这一事件对微软造成了严重的声誉损失。
据称,微软的这一行为可能是因为他们对人工智能技术的过度自信和对监管机制的忽视。OpenAI曾经警告微软,称他们的模型还不够成熟,需要更多的监督和过滤机制,但微软却没有听取这一建议,直接上线了这个聊天机器人。
这一事件表明,人工智能技术虽然具有巨大的潜力,但也需要适当的监管和过滤机制,以确保其不会被滥用或误用。
更新于 2023年06月14日