Page 1 of 1

OpenAI 的做法招致越来越多的批评

Posted: Sat Jan 25, 2025 9:55 am
by testyedits
DALL-E 2 尚未准备就绪,它只是一个私人 Beta 版,隐藏在等待名单后面,主要供研究人员使用,这激起了人们对 OpenAI 这项新奇事业的兴趣。直到 2022 年 9 月 28 日,Beta 等待名单才被删除。仅仅两个月后(11 月 3 日),“DALL-E API”的公开 Beta 版就发布了,允许将 AI 集成到其他人的外部应用程序和项目中。然而,事情并非表面看起来的那样,随着 OpenAI 的每一个新举措,又迎来了另一场批评。


在 OpenAI 网站的“规划 AGI 及未来”部分,他们自豪地表示:“我们的使命是确保通用人工智能(通常比人类更聪明的 AI 系统)造福全人类。”开发此类 AI 模型一直是该公司的目标。从纯技术角度来看,艾伦人工智能研究所(“AI2”)首席执行官 Oren Etzioni 对 DALL-E 2 的赞扬很谨慎,他说:“这种改进并没有让我们更接近 AGI,[…] 我们已经知道 AI 非常擅长使用深度学习解决狭窄的任务。保加利亚电话号码数据 但制定这些任务并向深度学习发出行动指令的仍然是人类。”OpenAI 的 Prafulla Dhariwal 试图解释:“建立像 DALL-E 2 这样连接视觉和语言的模型是我们实现更大目标的关键一步,即教机器像人类一样感知世界,并最终开发 AGI。”具体来说,深度学习算法是一种多层神经网络,是一种机器学习,具有大量自动准推理和学习的能力,消除了迄今为止人工智能研究通常需要的一些人类专家后端。

OpenAI 也承认其最新 AI 模型存在缺陷。OpenAI 研究员 Alex Nichol 向《史密森尼杂志》讲述了一个有趣的事件,当要求 DALL-E 2“将埃菲尔铁塔放到月球上”时,月球只是漂浮在埃菲尔铁塔上方,保持自然秩序不变。两个或多个对象和属性的组合通常是导致许多此类故障的原因

我必须承认,这种对技术的关注掩盖了 OpenAI 项目中更大的道德问题。Antonia Mufrarech 在《史密森尼杂志》上撰文并引用了 The Verge 上的一篇文章,解释道:“除了自动化方面的缺陷外,DALL-E 2 还提出了道德问题。尽管系统创建的图像带有水印,表明该作品是由人工智能生成的,但它可能会被裁剪掉。”