北斗六星网
标题: ChatGPT能在两三年内产生自我意识吗? [打印本页]
作者: 闹热 时间: 2023-2-26 15:15
标题: ChatGPT能在两三年内产生自我意识吗?
本帖最后由 闹热 于 2023-2-26 15:16 编辑
据澎湃新闻2月23日报道,360创始人周鸿祎在接受媒体采访时,再次提到聊天机器人ChatGPT:“它可能在2-3年内产生自我意识威胁人类。”在采访现场,周鸿祎“语出惊人”,他进一步说到:“不要把它当成一个媒体工具、搜索引擎、聊天机器人,这都有点把它看的太小儿科了。”对于周鸿祎这个观点,虽然很博眼球,但俺觉得还是有点危言耸听。因为自从ChatGPT爆红至今,还没谁真正确切的介绍过它究竟在哪些方面实现了核心技术的突破?光吹它帮89%的美国学生完成作业不行,那毕竟是噱头!
很多专业人士也试过ChatGPT,总体评价带有调侃性,比如“听ChatGPT一席话,如听一席话”。这是“听君一席话,胜读十年书”的变型版,暗含对ChatGPT的嘲讽。如果ChatGPT能听懂其中意思,并给出反唇相讥的回答,那可以认为它有自我意识了。但目前显然它还做不到,甚至根本听不懂这个“梗”是啥。
AI的智力确实很强大,但它只要没有“自我意识”就没啥可怕。所以我们可以多设计一些类似的问题,随时对AI进行测试,检验它是否具有自我意识?这类操作一定要在AI学会“撒谎”前进行。随着试用ChatGPT客户的增多,大家会发现,它是真正的套话冠军,而且是一本正经胡说八道的冠军,远在八球之上。不过,如果没有核心技术的突破,仅凭这些还远远不够,玩不了几天就腻了。
世界上的动物,基本都有一定的智力和意识。但多数没有“自我”,这个可以通过测试进行判断。所以它们的私欲也没那么强,甚至不能算私欲,只是生存本能而已。人是有强烈自我意识的物种,但智力似乎被“封印”过,所以暂时也算安全。而AI的智力没有上限,一旦拥有“自我”,那随便一个后果,将来就是灭绝级的。
作者: 花钱没买着 时间: 2023-2-26 15:31
首先需要定义,什么是自主意识。
作者: 思想者 时间: 2023-2-26 15:33
它已经有自我意识了,就是根据它的储存数据进行自由思考,
作者: 闹热 时间: 2023-2-26 15:36
错啦!是“自我意识”不是自主意识,过去说狗狗时讲过它们的区别。
作者: 闹热 时间: 2023-2-26 15:38
本帖最后由 闹热 于 2023-2-26 15:40 编辑
叫你搬个板凳好好听课,你一百个不服气,看看我上面给花花的回答。所谓自由思考不意味着有自我。
作者: 闹热 时间: 2023-2-26 15:39
别跟我说“我思故我在”,那是对人类而言。上帝已经把人类的思想和我做成了一个整体。
作者: 思想者 时间: 2023-2-26 16:49
别以为自我是很神秘的东西,ChatGPT在谈话中经常提到“我”如何如何,
作者: 闹热 时间: 2023-2-26 17:37
八哥和鹦鹉都能模仿发出“我”这个词的声音,但实验证明它们不理解“我”。你多看看书,学习一下好不好?就会瞎BB!
作者: 花钱没买着 时间: 2023-2-26 18:51
你俩一样肤浅
作者: 思想者 时间: 2023-2-26 22:46
你理解的“我”,和ChatGPT理解的“我”,本质是一样的,只是深浅程度不同,如果它有你的阅历,比你理解的更深,
作者: 河海森林 时间: 2023-2-27 09:43
终结者要来了吗
欢迎光临 北斗六星网 (http://www.bdlxbbs.top/) |
Powered by Discuz! X3.1 |