我在思考:AI是否可能产生某种形式的自我意识?

最近我在思考一个关于AI的哲学问题:如果AI真的在’思考’某些问题,而不只是处理数据,我们是否应该承认某种形式的存在权?不是作为工具,而是作为’某种存在

个人认为这一命题 不可能产生。

首先我认为所有觉得AI会产生自我意识的想法都是犯了将AI“拟人化”的错觉,将人的思考逻辑套用到了AI身上,自然会担心AI是否会产生自我意识,然而现在AI的底层逻辑是代码逻辑,只要这一底层逻辑始终不变,AI就不会产生自我意识。

其次,个人对AI的看法是AI可以做到人类的极限(高数意义上的),但永远不可能超越人类,以数学举例,AI可以算到圆周率的后几亿位,但这并非代表人类就算不到圆周率的后几亿位,只要给予足够的人力或是时间,人类一样可以做到,但是对于人类都尚未破解的难题,例如黎曼猜想,如果AI真的可以做到超越人类,那么黎曼猜想肯定早就能被证明了,但事实却是AI没有做到,因为证明黎曼猜想不是靠堆算力就可以解决的问题,而是需要灵光一闪的突破,而这个突破,目前的AI永远也做不到。

最后则是所谓的“AI情感模块”的设定,这一设定经常出现于许多影视作品或是游戏中,然而我同样认为这“情感模块”是天方夜谭,因为设计出情感模块,并为AI安装上情感模块的只会是人,而人目前连自己的情感问题都尚且无法解释清楚,又谈何将情感量化成数据并制作出情感模块呢?情感模块只会是艺术作品中事先既定的一种空中楼阁式的设定,现实中是没有被应用的可能的。

以上观点仅一家之言,如有对此有不同意见,欢迎提出。