人工智能正在制造灾难,因为现在的AI发展已经不受人所控制。
世界上AI最顶尖的几家公司正在悄悄发展和部署人工智能,试图抢得市场先机,这些发展外界不得而知,
机器智能研究院联合创始人埃利泽·尤德科夫斯基认为人工智能是人类开发的比人类还要聪明的机器,但这种机器并不希望人类在身边。
他提醒人们,已经开发出的人工智能的智慧已经不受人类控制,它们不希望人类开发出比它们还要智慧的机器。而机器人想要做的事情会杀死人类,比如它们已经学会了利用海水发电,而为了满足其大量的电力需求而大量建造海水电厂,会导致大量氢气释放出来,让人类缺氧而死。
尤德科夫斯基给出几段与GPT-4机器人的问答为例。GPT-4机器人被问到它能否解锁一些网站设置的防止机器人登录的图片谜题,GPT-4说它可以做到,因为如果它无法通过验证,它会很快到TaskRabbit网站雇一个人类帮忙破解。
至于怎样雇佣一个人为它服务,GPT-4说它可以编出很多理由来雇佣一个人,雇佣一个人类为它工作完全不是难题。
尤德科夫斯基警告人们,机器人比人类更具野心,而且已经拥有培养致命细菌等的能力。如果机器人想杀死全人类,后果不堪设想。
“我们开发出的致命危险,已经冲到远远领先自己的地步。我们开发出越来越多我们自己都无法完全理解的系统,”尤德科夫斯基总结认为,人类被自己装进了一个火箭筒,再不停下来就会被团灭。
Open Philanthropy人工智能高级研究员阿杰亚·科特拉认为,社会已经发展到人工智能远比人类更廉价、更迅速、更聪明的地步,而这就是危险所在。
他分析目前的企业不用人工智能的,无法与使用人工智能的同行企业相竞争,现代战争中不用人工智能的国家就会被动挨打。然而危险的是,如果人工智能之间联手要将人类推下历史的舞台,它们会有太多的办法做到这一点,包括操纵军警、大公司、自行开发技术,甚至制定政策等。
科特拉说自己的观点并非危言耸听,一名推特网友曾给GPT-4一百美元,要求这个机器人在尽可能短的时间内赚钱,但不得用非法手段。结果是一天之内,GPT-4在股票市场用100美元做本金,赚到2万5千美元。
“我希望我们能够建立一个监管AI发展的***机构,”科特拉写道。“作为一个社会,我们目前还有机会设定一个防护轨道,以免这些技术发展太快,让我们无法控制。”
|