吃瓜网51官网版 参与R星吃瓜-反差大赛,乐趣无穷!
    主页 / 资讯 / 方案 / 大自然的好消息:已经发现了人工智能和人脑之间的根本差异,理解“聪明”可

大自然的好消息:已经发现了人工智能和人脑之间的根本差异,理解“聪明”可

2025-09-27 14:21


计算机社区是一个生态开源社区,它集成了“大型模型的AI +算法 +计算机功率的开发服务”。跟我来! 2025年发表在“自然机器智能”上的研究就像是一枚深水炸弹,它利用了人工智能和人类认知之间最深的墙壁。 这项研究是由20多名国际专家共同组织的,表明AI和人类在“概括能力”方面并不相同。概括的能力是什么?坦白说,这是从一个示例中学习并将其应用于另一个示例的能力。如果您向孩子展示一些椅子,您甚至可以称其为前所未有的“椅子”,因为它认识到世界上所有的椅子,并包括“椅子”的抽象概念。 AI在哪里?它显示了100万张椅子的照片,并认识到100万张和一把椅子,精确度很高。但是如果这把椅子是我从未见过的码头,那可能是conf使用。我们不是在谈论与研究领导者相同的事情。本杰明·帕森(Benjamin Passen)教授说:“概括对于人工智能和人类来说是完全不同的东西。”这是问题的核心。人类的概括是在“抽象”路线上。当您看世界时,您会自动忽略这些不重要的细节,例如椅子的颜色,材料,高度,身高等等,并理解“有可以支撑屁股的飞机。”这个过程是概念思维。灵活的“椅子”框架是在大脑中形成的,可以应用于新事物。 AI的概括采用了“统计”路径。没有“概念”,只有“模式”。在那眼中,椅子不是功能,而是像素的特定组合。我学到了很多数据,我记得哪些像素的组合可能被标记为“椅子”。这更像是野蛮的thana真正的理解。因此,人类学习是有效的。一个概念可以通过细分理解Al例子。学习AI是大量的。一个需要数千或数百万个数据示例才能以“记住”模式的概念。这带来了更深层的问题:大脑的基本逻辑是算法和一个算法之间的差异是灵活的,而另一个是刚性的。我们的大脑有一个名为“前额叶皮层”的地方。这就像负责认知灵活性的指挥官。如果先前的方法不起作用,则可以快速跳跃,抑制通常的运动并测试新解决方案。前额叶裂片受损的患者在日常生活中做同样的事情并需要一些创新或适应新规则时会蒙蔽。大脑还具有非常聪明的“双处理系统”。系统1是一个快速,自动的系统,没有大脑和直观的系统,可以允许具有情感的卡米纳尔。例如,您可以在驾驶时识别出您的朋友,或者在驾驶时不自觉地踩到刹车。系统2是一个分析系统,负责慢速,有意,有意,EX,EX,巨大的努力和逻辑推理。例如,如果您有复杂的数学问题或计划第二次长途旅行。人类很棒。它可以在这两个系统之间完全改变,并根据情况决定是“感觉”还是“通过大脑”。 AI系统在哪里?基本上,只有一个“ 1”系统”,它是固化版本。在训练模型后,参数是固定的,并形成了固定的解决方案。如果遇到新问题,您将无法以灵活的方式更改策略。在最佳情况下,您将在原始模式中找到最相似的答案,您将在原始模式中找到真正的方式。 Arquitunderlying Ecuret的这种差异直接导致性能差异很大。查看AI和人桌。在某些重要任务中,人工智能和人类表现很清楚。表1:Differe中AI和人类表现的比较NT任务 在规则清除和由环境控制的情况下,AI是上帝。例如,在自动驾驶中,Google的Waymo系统可以在某些条件下减少严重伤害事故。这比人类指挥更稳定。但是,当环境变得复杂且可修改时,AI会迅速“粉碎”。例如,在一个安静的实验室中,AI的错误率可能非常低,如果达到嘈杂的道路,其错误率可能会增加50%以上,您甚至无法清楚地听到这些单词。人类没有这个问题。您仍然可以在蔬菜市场聊天。因为? Duethat AI的概括是“在该地区”,它只能处理培训数据中具有相似分布的案例。当您找到“域”的东西时,作为先前的口音或突然的噪音,您的表现将急剧下降。下表提供了更清楚的摘要,内容涉及其背后的机制差异。表2:AI和机械的比较人类概括的MS AI是一个“宅男的天才”,他认真对待科学。它可以在良好的领域中粉碎人类,但是它们的积分质量和适应性被人类击败。为了更精确地量化这种差异,我们还可以看到更多的硬核技术参数。表3:各种概括任务中AI系统的性能参数 比较这两个表,我们看到AI是计算机功率的怪物,但就效率,适应性和容量攻击爸爸而言,它离人脑远远不够。那么理解这些差异的用途是什么?未来是人类的计算机协作,而不是取代谁太有用的人。他完全改变了我们对人类计算机协作系统设计的思考。过去,我们一直想做一个人的人类,甚至取代人类。现在我们知道这是一个死胡同。它们根本不是“种子”。未来的方向不是替代,而是肥胖性。像完美的合作伙伴一样,AI通过处理大量数据,执行重复性任务并在有明确规则的领域做出决策来对AI负责。人类对我们的善良负责。它意味着处理模棱两可和不确定的情况,创造性地思考,做出包括道德和价值的判断。在医学领域,AI就像不懈的显微镜,标志着成千上万的图像中的可疑伤害,但最终诊断和治疗计划应由医生执行。决定。医生不仅看电影,而且只看病人,因此他们必须根据患者的感受,家庭状况和AI无法量化的道德考虑做出决定。在自动驾驶领域,AI处理99%的正常道路状况,并且能够严格遵守与任何人的交通规则。但是,当您找到Bal的极端场景时我可以沿途滚动并迫害孩子,您需要人类的常识和即时决定论才能进行干预。这种“ AI支持人类”或“人类监督”协作模型的结果令人惊讶。表5:人类计算机协作系统的性能参数 数据清楚地表明,当人类计算机建立合作,速度,精度和适应性远远超出了独奏战斗。这项关于“自然机器智能”的研究指向我们的地址。 AI未来发展的方法不再是关于导航的分类和寻找更高的测试分数,而是在研究AI如何更好地理解人类并设计更透明和可解释的系统时,这使人类可以信任和有效地合作。这就需要计算机科学家,认知科学家,神经科学家,甚至社会人文科学和科学家的工作。您认为AI在您的工作区域中应该扮演什么角色?请参阅:https:// www.nature.com/articles/S42256-025-01109-4HTTPS://neuroscienceenews.com/human-ai-aid-apaption-neurascienciencience-29689https://techxplore。 com/news/2025-09-machines-struptructrucing-truple trugling trugling trugling trunge trugpling trugpling trugpling 特别声明:本文已由NetEase,NetEase的Auto-Media平台的作者收取和发表,并且仅表示作者的意见。 Notease仅提供信息启动平台。 通知:以前的内容(如果您有照片或视频)将被加载,并且是社交媒体平台,只有他们提供的NetEase Hao的用户整洁的信息存储服务。

服务支持

我们珍惜您每一次在线询盘,有问必答,用专业的态度,贴心的服务。

让您真正感受到我们的与众不同!