人机融合为什么这么难?
DeepMind的阿尔法go、zero、fold中的阿尔法,alpha,即α,是希腊字母表的第一个字母,有第一个、开端、最初的含意。
如果计算是沟通事实与价值、态势与感知的渠道,那么,算计则是联系主客观、感理性、意形化的虫洞。
人工智能中的“人”并不是一个“人”
一般而言,对于一个具体的任务态势而言,事物的价值量常常围绕其事实(显著性)量而发生变化,但不是确定性的变化,而是不确定性的弥聚变化,时大时小,弥散聚合富有弹性,这与我们通常生活中的价值观相似,不断同化顺应、修正平衡。就像费曼所说:事物在微小尺度上的行为完全不像大尺度上的行为。反之,也相似。有时,变化态势中事物的事实量与价值量不是线性变化的,而是像电影里的镜头一样按照自己的逻辑线索改变,不需要日常的中间时空,既可以无中生有,也可以有中生无。某些特定的态势下事物的事实性与价值性即便相距的再远,也能瞬间互相识别,形成自动模式匹配效应。
人工智能中的“人”不是真“人”。自主并不代表智能,或者说自主是智能的必要而非充分条件,只有具备了价值观的自主体,才能说它是智能体。所以说,事实性自主仅是自动化,价值性自主才是智能化,洞察性自主更是智慧化。真的人常常是没有主体性或本体性的,会随着系统和体系而变化。
人机互荡,机器处理线性,人处理非线性。
一部好的作品,是众人创造的结果,比如《平凡的世界》是路遥写的,是李野墨说的,是演员演的,是无数读者/听众想的,是各种媒介传的……;一个好的智能产品或系统,也是众人创造的结果,比如“阿尔法狗”或“阿尔法元”是Deep Mind开发的,是前人棋谱训练出的,是群众想象出的,是各种媒介传的……
有人说:“感性是复杂的模式模糊计算,是最节能与最高效的平衡”。其实不然,感性智能不是计算,而是加了算计的计算计机制,这才是复杂的模式模糊计算计,是最节能与最高效的平衡。计算计机制时常在不一定了解发生事情的确切过程时能给出一个满意的答案,尽管这些过程是不透明的,而且很难清晰的证明可以做什么,不可以做什么。对感性智能而言,规则是可以被修正的,如果它产生了我们不愿意接受的推理;推理可以被拒斥的,如果它违反了我们不愿意修改的规则。事实转换为价值的过程就是在规则与被接受的推理之间进行相互调整的一种微妙的过程;最终确定的价值就存在于他我或自我达成的协议中。也许,真的不能用人工智能的基本规律去解释人类智能的规律。
连接时间与空间的是速度,连接能量与质量的也是速度,那么连接事实与价值的会是什么呢?即用什么指标来衡量值不值得做某件事的问题。这也许是连接真实与虚拟、现实与虚构、结构与功能等平行世界的问题吧!
人机融合的矛盾在于:人发散,机收敛,人辩证,机规则,一弥一聚,一动一静。再有我们面对的常常不是一个问题,而是交织在一起的一群不同问题!所以运用单纯的数理逻辑方法很难实现解决的目的,所以还需要同时使用形式逻辑、辩证逻辑,甚至非逻辑手段。
机器学习甚至人工智能的不确定性和不可解释性主要缘于人们发现发明的归纳、演绎、类比等推理机制确实有可能导致某种不完备性、不稳定性和相悖矛盾性,而且随着计算规模的不断扩大,这些不确定性和不可解释性越大。而人类的反事实推理、反价值推理可以从虚拟假设角度提前预防或预警这些形式化的自然缺陷。把人机融合体当做一个认知主体,更有利于解决复杂性问题,只是需要解决在不同任务下的如何融合的问题。另外,一人一机的单一融合与多人多机的群体融合从根本机理上也会很不相同,正可谓:三个臭皮匠顶个诸葛亮。
命题逻辑的关键点在于它是二进制的。每个句子(也称为命题)假定为真和假。没有中间答案,也不接受不确定性和概率,只允许两个“真值”,即真和假。热力学比逻辑更接近大脑的功能。逻辑学被统计学取代,单一单元被集合取代,确定性纯度被概率噪音取代。
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341