2023 AI展望 2023-02-28 

  

  2022年,人工智能变得越来越有创造力。人工智能模型现在只需一点点文字提示,就能制作出非常令人信服的文本、图片,甚至视频。
  9个月前,OpenAI公司推出了DALL-E2模型,引发了生成式人工智能的爆炸。DALL-E2是一种可以通过文本内容生成图像的深度学习模型。
  随后,谷歌和Meta也取得了突破,它们发布的人工智能模型可以通过文本制作视频。我们还看到OpenAI发布了ChatGPT,一个最新的大型语言模型,以其惊人的表达和连贯性引爆了互联网。
  2022年的人工智能创新步伐非常惊人,有时甚至令人难以相信。谁曾想过会看到这样的进步呢?我们又如何才能预测接下来会发生什么呢?今天我们不妨来试一下。
  多用途聊天机器人GPT-4的能力可能不仅局限于语言
在过去的几年里,规模更大、质量更好的语言模型不断涌现。目前最好的是ChatGPT,由OpenAI于2022年12月初发布。
  这款聊天AI是基于该公司GPT-3模型的一个更流畅、更优化的版本,GPT-3在2020年开启了一股神秘的人类语言模仿浪潮。
  不过,三年在人工智能领域是很长一段时间。尽管ChatGPT凭借惊艳的对话技巧席卷世界,吸引了无数人的关注,并且占据了大部分媒体的头条,但现在所有的目光都聚焦在下一件大事情上:GPT-4。
  一些人认为,2023年将是下一代大型语言模型的启动之年。
  我们可以期待什么?首先,未来的语言模型可能不仅仅局限于语言模型。OpenAI对整合不同类型的模型很感兴趣,比如将图像或视频识别与文本结合起来。
  我们在DALL-E上看到了这种能力。但是,利用ChatGPT的对话技巧,将它们与单一模型中的图像操作混合起来,你就会得到一些更通用、更强大的东西。
  想象一下,你能够询问聊天机器人图像中有什么,或者要求它生成一张图像,并将这些交互作为对话的一部分,这样你就可以比DALL-E更自然地改进结果。
  我们看到了DeepMind的Flamingo模型。它是一个在2022年4月发布的“视觉语言模型”,可以使用自然语言回答有关图像的问题。
  在2022年5月,DeepMind推出了Gato,这是一种“多面手”模型,使用大型语言模型背后的技术进行训练,以执行不同类型的任务,从描述图像到玩电子游戏,再到控制机器人手臂。
  如果GPT-4建立在这种技术之上,那么我们有理由期待,只要一个模型就能拥有最好的语言和图像人工智能(以及更多)的力量。
  结合语言和图像方面的技能,理论上可以让下一代人工智能更好地理解这两者。而且参与者不仅仅是OpenAI。预计其他大型实验室,尤其是DeepMind,将在2023年推出更多多模式模型。
  当然,缺点也不容忽视。下一代语言模型将继承这一代的大部分问题,比如无法从虚构的小说中辨别事实,以及包含难以避免的偏见。
  更好的语言模型将使人们比以往任何时候都更难信任不同类型的媒体。而且,训练数据是从互联网上获取的,其中包含许多人类文化中的糟粕,但却没有人完全知道如何用“取其精华,去其糟粕”的方法训练模型,因此模型仍会输出有毒内容。
  人工智能面对的红线新法律和鹰派监管机构
到目前为止,人工智能产业一直在野蛮生长,几乎没有什么规则来管理该技术的使用和发展。
  到2023年,这种情况将会发生改变。全球范围内的监管机构和立法者用了整个2022年的时间来养精蓄锐,现在正摩拳擦掌。2023年,预计他们将重拳出击。
  我们将看到,欧盟立法者会在2023年夏天完成人工智能法案(AI Act)的最终版本。它究竟会实施哪些监管措施,我们拭目以待。
  几乎可以肯定的是,它将禁止被认为对人权有害的人工智能实践,比如对个人可信度进行评分和排名的系统。
  对于欧洲执法部门而言,在公共场所使用面部识别也将遭到限制,甚至还有完全禁止执法和私企应用面部识别的声音出现。
  不过全面禁令将面临部分国家的强烈阻力,这些国家希望使用这种技术来打击犯罪。
  欧盟还在制定一项新法律,当人工智能公司的产品造成伤害时,比如侵犯隐私或算法做出了不公平决定,欧盟将追究公司的责任。
  在美国,美国联邦贸易委员会也在密切关注企业如何收集数据和使用人工智能算法。
  2022年早些时候,美国联邦贸易委员会强迫减肥公司慧俪轻体(Weight Watchers)销毁数据和算法,因为它非法收集了有关儿童的数据。
  2022年12月底,游戏公司Epic同意达成5.2亿美元的和解协议,从而逃避了同样的命运。
  关于如何制定企业处理数据和构建算法的规则,美国监管机构今年一直在收集反馈,其主席莉娜·汉(Lina Khan)表示,该机构打算“紧急和严格地”保护美国人不受非法商业监视和数据安全行为的影响。
  在中国,有关部门禁止了在未经同意的情况下使用深度伪造(DeepFake)的造假行为。
  欧盟还希望在人工智能法案中加入一条规定:在媒体中添加警告标识,以告知人们正在与深度造假或人工智能生成的图像、音频或视频互动。
  这些规定都可能影响科技公司如何构建、使用和销售人工智能技术。
  然而,监管机构必须在保护消费者和不阻碍创新之间找到一个棘手的平衡——这是科技游说者不断提醒他们的。
  人工智能是一个快速发展的领域,政策制定者面临的挑战是,如何保持规则足够精确以确保其效果,但又不能太过具体,以免它们很快就会过时而不适用。
  就像欧盟监管数据保护的努力一样,如果新法律得到正确实施,2023年可能会迎来一个姗姗来迟的、更尊重隐私和公平的人工智能发展时代。
大型科技公司vs初创公司
  据预测,大型科技公司可能会逐渐失去对基础人工智能研究的控制,人工智能初创公司将展示自己的实力。
  大型科技公司并不是人工智能最前沿的唯一参与者;一场开源革命已经开始,许多初创公司和组织正在与最有资源的实验室做相似的事情,有时甚至会超越后者。
  在2022年,我们看到了由Hugging Face发布的第一个社区构建的、多语言的大型语言模型BLOOM。
  我们还看到了围绕开源的文本到图像人工智能模型“稳定扩散(Stable Diffusion)”的爆炸式创新,它可以与OpenAI的DALL-E2相媲美。
  随着全球经济前景黯淡,历史上一直主导人工智能研究的大公司正在实施大规模裁员和冻结招聘。
  艾伦人工智能研究所的CEO奥伦·埃齐奥尼(Oren Etzioni)认为,人工智能研究是昂贵的,钱包收紧意味着公司必须非常小心地选择投资哪些项目。大型科技公司可能会选择让他们赚更多钱的项目,而不是更创新的、更有趣的,或者实验性的项目。
  这一点已经体现在Meta公司身上,该公司已经重组了其人工智能研究团队,并将他们中的许多人转移到开发产品的团队中工作。
  但是,当大型科技公司勒紧裤腰带时,研究生成式人工智能的新贵正迎来风险投资资金的青睐。
  埃齐奥尼说,2023年可能会给人工智能初创公司带来好消息。很多人才将流入市场,在经济衰退中,人们往往倾向于重新思考自己的生活,比如回到学术界,或者离开一家大公司去创业。
  美国莫兹拉基金会的执行董事马克·苏尔曼(Mark Surman)说,初创公司和学术界可能成为基础研究的重心。
  他说:“我们正在进入一个时代,大公司在定义人工智能研究议程方面的影响正在减弱。这是一个好机会。”
  人工智能生成蛋白质制药产业将彻底改变
在过去的几年里,人工智能撼动制药行业的潜力已经变得很明显。DeepMind的AlphaFold是一种能够预测蛋白质结构的人工智能。它为分子生物学的新型研究扫清了道路,帮助研究人员了解疾病是如何工作的,以及如何创造新的药物来治疗它们。
  2022年11月,Meta推出了ESMFold,这是一种预测蛋白质结构的模型,它使用了一种基于大型语言模型的技术,实现方法有点像自动补全蛋白质。
  使用这两个模型,DeepMind和Meta已经制造了数亿种蛋白质的结构,包括了科学界已知的所有蛋白质,并在庞大的公共数据库中共享它们。
  生物学家和制药商已经从这些资源中获益,这些资源使得寻找新的蛋白质结构几乎就像网络搜索一样容易。
  但2023年可能是这一基础工作真正取得成果的一年。DeepMind已将其生物技术工作剥离为一家独立的公司——同构实验室(Isomorphic Labs),该公司已经在静默模式中工作了一年多了,2023年很有可能会推出一些重大成果。
  在药物开发方面,现在有数百家初创公司在探索利用人工智能加速药物发现的方法,甚至设计出前所未有的药物种类。
  目前,人工智能制药公司开发的19种药物正在进行临床试验(2020年为零),未来几个月我们将看到更多人工智能研发的药物。
  其中一些药物的初步测试结果可能会在2023年公布,或许会有第一个在人工智能的帮助下开发的药物上市。
  但临床试验可能需要数年时间,所以还有很长的路要走。即便如此,“科技制药”的时代已经到来,现在再也没有回头路了。
  投资生物技术的风投公司Flagship Pioneering的洛维萨·阿夫泽利乌斯(Lovisa Afzelius)表示:“如果做得好,我认为我们将在这个领域看到一些不可思议的事情发生。”(麻省)