本帖最后由 闹热 于 2023-2-26 15:16 编辑
据澎湃新闻2月23日报道,360创始人周鸿祎在接受媒体采访时,再次提到聊天机器人ChatGPT:“它可能在2-3年内产生自我意识威胁人类。”在采访现场,周鸿祎“语出惊人”,他进一步说到:“不要把它当成一个媒体工具、搜索引擎、聊天机器人,这都有点把它看的太小儿科了。”对于周鸿祎这个观点,虽然很博眼球,但俺觉得还是有点危言耸听。因为自从ChatGPT爆红至今,还没谁真正确切的介绍过它究竟在哪些方面实现了核心技术的突破?光吹它帮89%的美国学生完成作业不行,那毕竟是噱头!
很多专业人士也试过ChatGPT,总体评价带有调侃性,比如“听ChatGPT一席话,如听一席话”。这是“听君一席话,胜读十年书”的变型版,暗含对ChatGPT的嘲讽。如果ChatGPT能听懂其中意思,并给出反唇相讥的回答,那可以认为它有自我意识了。但目前显然它还做不到,甚至根本听不懂这个“梗”是啥。
AI的智力确实很强大,但它只要没有“自我意识”就没啥可怕。所以我们可以多设计一些类似的问题,随时对AI进行测试,检验它是否具有自我意识?这类操作一定要在AI学会“撒谎”前进行。随着试用ChatGPT客户的增多,大家会发现,它是真正的套话冠军,而且是一本正经胡说八道的冠军,远在八球之上。不过,如果没有核心技术的突破,仅凭这些还远远不够,玩不了几天就腻了。
世界上的动物,基本都有一定的智力和意识。但多数没有“自我”,这个可以通过测试进行判断。所以它们的私欲也没那么强,甚至不能算私欲,只是生存本能而已。人是有强烈自我意识的物种,但智力似乎被“封印”过,所以暂时也算安全。而AI的智力没有上限,一旦拥有“自我”,那随便一个后果,将来就是灭绝级的。
|