图片来源:rafapress - Shutterstock
可以说,对人工智能的焦虑从未如此强烈。 有专家预测人工智能奇点可能在未来十年内发生,以及微软新的 Bing 搜索 AI 的最新截图表达看似人类的恐惧和欲望有些人想知道它是否已经在这里了。
很容易理解为什么这种情绪正在蔓延。 一般人听到“人工智能”一词,可能会想到天网或 HAL 9000——拥有类人自我意识并由与人脑一样复杂的强大处理器控制的复杂机器。
然而,与 Midjourney、ChatGPT 或成为头条新闻的谷歌和微软搜索助手等工具的现实相比,好莱坞人工智能是一种非常不同类型的“人工智能”。
事实上,有人可能会说,将聊天机器人、艺术生成器或自动化编程工具标记为“人工智能”是用词不当,或者更有可能只是一种营销工具。
像 ChatGPT 这样的“人工智能”工具是如何工作的?
用最简单的术语来说,这些“人工智能”工具是为从用户输入中输出结果而构建的程序,它们需要工程师和用户的外部管理来微调其性能。 该软件在数据库中搜索与用户提示相匹配的信息,将其组合在一起并根据需要进行修改,然后将其重复返回给用户。 作为特德·姜最近在《纽约客》上撰文,这个过程更接近于对现有作品进行模糊复印,而不是从空白页批量创建新作品。
换句话说,人工智能生成的文章、艺术或代码看起来非常像人类,因为它们都是基于人类制作的现有材料。 旅途中的图像之所以能唤起人们的回忆,是因为它们抄袭了理解构图和色彩理论的真人制作的绘画、插图和照片。 Bing 的答案看起来非常人性化,因为它们重复着人类编写的文本。
公平地说,这是令人印象深刻的技术很难构建,更难以调整以获得可靠的结果。 事实上,它确实有效,这一点是了不起的。 但无论《纽约时报》记者告诉你什么,这些学习如何写作、绘画或进行谈话治疗的机器中不存在“幽灵”,希望活着。
然而,人们误解了这些工具的复杂性和力量,认为它们是有感知能力的证据。 或者至少处于有知觉的边缘。
毫无疑问:制造这些工具的人知道这一点,他们非常乐意让人们相信他们的软件是有意识的、活跃的。 如果人们相信你的产品正在思考,他们就更有可能尝试你的产品。 Bing AI 交互或中途图像结果越令人印象深刻且“栩栩如生”,人们就越有可能继续使用它们,而且,记者 Ed Zitron 指出,人们更有可能支付对于他们来说。 这就是为什么 ChatGPT 被称为人工智能而不是“预测文本生成器”。 这是简单的营销。
人工智能可能已经不存在了,但它仍然是一个问题
但未来呢? 不是吗可能的计算机可以成为有意识的、有自我意识的生物,能够像人类一样进行自主学习和艺术输出吗?
嗯,当然,这是可能的,但科学家和哲学家仍在争论意识到底是什么,更不用说它最初是如何在生物生命中出现的了。 在非有机机械中的人工意识成为可能之前,我们需要回答这些问题。
如果人工意识是可以实现,但它不会很快发生,并且肯定不会自发地出现在 Midjourney 或 ChatGPT 中。
但与人工智能自动化目前给劳动力、隐私和数据自由带来的重大问题相比,机器人起义是否最终会在遥远的未来发生应该不那么令人担忧。
公司正在解雇作家和媒体专业人士,并用人工智能内容生成取代他们。人工智能艺术工具通常使用受版权保护的材料生成图像,深度假色情是一个日益严重的问题。 科技公司正在转向不可靠的机器生成代码,这些代码通常不如人类编写的代码安全。 这些变化之所以没有发生,是因为人工智能生成的内容更好(在大多数情况下这显然更糟),但因为它的生产成本更便宜。
这些问题是远的这比纠结 Bing 是否有感情更具威胁性,而且至关重要的是要认识到有多少这种“人工智能”技术的提供者正在利用这些焦虑来推销他们的产品。