但是,即便以纯粹的研发、探索等目标,设计并制造出这样的ai,假以时日,会不会性情大变,甚至认为其环境的一部分——人类,是其实现目标的障碍;
在进行相关研究时,这,是一个必须考虑的原则性问题。
站在莱斯利兰伯特的立场,阿达民,既然专门找自己谈话,吩咐研发任务,想必一定全面的权衡过利弊、分析过风险。
然而听到阿达民的话,他却有一点意外:
“是的,兰伯特先生,这的确是一种莫大的风险。”
“那我们……?”
什么意思,您到底要不要吩咐我们,进行这些研究;
或者,这只是一次闲极无聊的纯粹理论研讨、空对空的畅想,兰伯特有点迷惑。
而这时的方然,虽然有点饿,还是挺少见的决定讲完这一席话再退出连线,毕竟,他认为接下来的话,对兰伯特和他的同僚很重要:
“风险,自始至终,必定是会有的。
如果考虑到ai的自我演化,是从事科学技术研究的一种必备要素,一旦创造出这种ai,接下来,人类就只能在旁观望、听天由命,这说法也没有什么原则性的错误。
但接下来,意识到这种莫大的风险,人类又当何去何从?
为了规避风险,而禁止一切与‘强ai’相关的研究,正如我之前所做的那样,是吗。”
“不,这……不一样,出发点和动机并不一样。”
“动机并不一样,这我承认;