人工智能:监管应该针对人类,而不是机器

美国国会最近举行的听证会大大增加了对互联网行业进行某种形式监管的可能性人工智能但这必须非常谨慎地制定,以确保将意外后果降到最低,并确保美国不会在与中国的技术军备竞赛中陷入困境。

  • OpenAI首席执行官Sam Altman、纽约大学教授Gary Marcus和IBM的Christina Montgomery共同合作作证周二在国会举行的会议总体上是建设性的,没有冲突。
  • 讨论的第一个题目是监管在这方面,OpenAI和微软显然愿意与美国政府合作,甚至似乎欢迎某种形式的监管。
  • 似乎有可能成立一个监管机构,向规模超过一定水平的运营商发放许可证。但即使这样也充满了问题。
  • 我仍然认为,人类面临的真正风险不是来自恶意的机器,而是来自恶意的人类命令机器做坏事。因此,某种形式的许可可能会有所帮助。
  • 与此同时,Altman和Markus也指出了风险技术统治论人工智能集中在少数大玩家手中,他们将拥有难以想象的力量来控制和塑造社会。
  • 这是监管可能带来的最大危险之一,因为监管环境增加了经营成本,并造成了对大公司的(通常很大的)偏见,因为小公司无法承担合规的费用。
  • 这将导致较小的参与者被迫退出市场向几个大公司合并,这正是监管机构试图避免的事情之一。
  • 限制人工智能的发展也是行不通的,主要有两个原因:
    • 首先,妖怪已经从瓶子里出来了。大型语言模型以及如何创建它们的技术和诀窍在开源社区中已经广泛可用。
    • 这个社区如此之大,以至于有人猜测,开源模型的性能可能很快就会与大公司的性能相媲美。
    • 限制发展只会推动地下发展(糟糕的情况)或开车它在海外(更糟糕的情况)。
    • 因此,无论监管环境如何,这项技术都将得到发展,因此,支持这项技术的计划比减缓或阻碍它的计划更有可能成功。
    • 第二,技术竞争美国(以及越来越多的西方国家)陷入了与中国的意识形态斗争。
    • 这场战斗目前正在科技领域展开,尤其是半导体领域,但现在也开始进入人工智能领域。
    • 与半导体不同,美国和西方限制中国在这一领域发展的能力要弱得多,因为限制进入培训半导体只会略微减缓中国的发展。
    • 因此,如果美国有意阻碍自己的发展,那么这将给中国带来优势,这是美国政府所有政党都同意的一个坏主意。
  • 因此,我怀疑最好的监管环境将是一个低接触的系统,它既便宜又易于遵守,目标是限制不良行为者的访问,而不是技术本身。
  • 讨论的其他领域包括内容所有者的版权管理,其内容用于培训,然后成为小说创作的起源。
  • 这并不是一个新问题,因为dj也存在类似的问题,他们会截取音乐或内容来制作新曲目,所以我认为这个问题会随着时间的推移而得到解决。
  • 他们还讨论了就业问题。奥特曼和马库斯都认为,就业市场虽然可能会有一些变化,但不会立即面临危险。这与我的观点大体一致。
  • 这是我第一次看到一个行业要求被监管,这给了一个更好的机会获得有效的监管,而不是单方面强加规则时经常发生的意想不到的后果。
  • 我仍然认为机器和以前一样笨,但它们的大小和复杂性大大提高了它们的语言技能,即使它们只是简单地计算单词相邻出现的概率。
  • 这创造了一种令人信服的感知错觉,导致人们将这些系统拟人化,这反过来又使它们更容易被坏人利用。
  • 因此,人类来自其他人类的危险远比来自机器的危险大,这是任何监管都应该针对的。

(这是第一次出现在Radio Free Mobile上的一篇博客的版本。所有观点均为理查德个人观点。)

相关的帖子