房间里静悄悄的,只有投影仪发出的轻柔、节奏感十足的嗡嗡声。
伊索德紧闭着下巴观看了整个过程。她已经看过这次模拟演练一百遍了。
索尔维恩博士通过鼻子呼出一口气,声音低沉而有节奏。“神经崩溃。”
达尔-凯什特保持完全静止,他的面罩在黑暗中投射出一种黯淡的光芒。“一个不幸的缺陷,”他平稳地说。“我们以为你们部门还没有纠正这个问题。”
伊索德的手指紧握着小瓶,凉爽的玻璃压在她的手掌上。她抬头看着大脑,其神经元仍然失常,螺旋向完全失败。“你错了,”她低声说,但充满信心。
“当人工智能发展到一定程度,其复杂性无法被合理地监控时,就会出现问题,”索尔维恩博士解释道,同时从伊索德手中接过试管。“系统不再是一个系统,而开始变成另一种东西。一种思维。一个无羁、无结构、不断进化的智能体。这其中就蕴藏着危险。”
衰竭的大脑全息图继续抽搐,神经元疯狂地放电,通路错误地放电并以从未有过的方式重新配置。
当人工智能达到一定复杂程度时,它不再表现出机械的行为。你无法追踪每一个决定,每一个思维上的偏差,因为它停止遵循我们理解的思维逻辑。它建立自己的逻辑,自己的语言,自己对现实的认知。
“就像社会一样,”Dahl-Keshet说,挥舞着不相信的爪子。“你提出的东西已经被证明是一次又一次的失败。我们无需再听下去,Solvayne博士。”
“对你来说,百分之百的成功率是失败吗?”伊索德说,她的声音有点太响亮了,也有点尖锐。
内容未完,下一页继续阅读