大家觉得AI会产生意识吗?
其实个人希望是有的
但说句实在的,先就意识来说。
意识这个话题玄之又玄,很容易就扯到哲学与玄学上了。第一是它牵扯主观,我完全可以认为只有我有意识,你们都没有,因为我有(每个人都有)自我意识,即能够认知到自己,并思考关于自身主体,甚至思考自己正在思考这件事的意识。第二它牵扯感受,未经体验的''主观感受''也不会被''记忆'',没有对应的''感觉'',天生失明的盲人永远无法感受到颜色,天生失去感官知觉能力的人由于无法获得对应的''刺激''也永远无法得知这种''体验''。而且也有学说认为:意识是内在秉性/意识是神经网络信息堆叠的现象,是一堆电信号的集成/意识是错觉,是帮助生物更好的预测与推断环境发展状态的''助手''/意识存在量子效应与不确定性......
当然,以上关于意识的思考都是网络主流观点,说到底,我们对于人脑的研究也不透彻,自然对''意识''也没有一个定论(无论是生物学还是哲学)。
而AI呢,单说LLM(先不提忆阻器与脉冲神经网络SNN等实现机制)基于冯·诺依曼架构实现底层,构建神经网络与ReLU函数片面模拟神经元激活方式和人类神经元,并通过奖励函数与反向传播调整参数,强化学习与梯度下降逼近局部甚至全局最优。本质还是在充满词语的高维向量空间中,提取提问者的话作为token,并预测下一个词(token)的最高概率并输出。(这一段去问AI都比我打这一大串字讲的好😂)
总之,令我讶异的点其实在于这看似''无机质''的训练中竟然能孕育出类''智能'',能''思考''(尽管也可能是模拟,或假的)的行为。(P.S.当然数据也是人类提供的,而且由于训练数据集的不完善,以及训练方法的不同,部分AI''幻觉''严重(没错说的就是你deepseek),也有可能导致过拟合与欠拟合。[所以要靠AI进行自我迭代目前基本不可能,喂AI生成的数据只会劣化甚至污染数据集,因为AI生成的东西模板化,单一化,且不可靠,也说明了目前AI想要成为AGI等''智能生命体''也基本不可能(你连自我迭代都进行不了)])
它的机制注定我们无法掌握LLM运作方式(神经网络内部是名副其实的''黑箱'',有时候你根本不清楚为什么参数要这样调,这也是AI''不确定性'',''失控''担忧的根源,但也增添了几分魅力不是吗,人脑不也是一个极其庞大,运作更复杂的''黑箱''吗)
总之,由于个人对这方面也没有独到的见解,理解不深,请多多包涵,大家理性讨论。