所以,如果大型模把‘1+1=2’固定死,或者列为固定式,人工智能就无法解答哲学问题。
然而人们使用检索工具寻找答案,需要的是‘数学答案’,不是‘哲学答案’。
所以不能把‘1+1=2’列为固定式。
如此一来,如果数据库中‘1+1=3’的哲学答案数量,超过‘1+1=2的常规答案数量’,人工智能就会给出‘1+1=3’。
这显然不正确。
也会令用户感觉人工智能过于拉跨。
同理,其它问题和答案,也会受到这种影响。
比如‘倭岛是否被北美和平过’。
正确答案肯定是‘是’。
但如果有人不停的在互联网中传播‘否’,大型模→数据库→采集信息,就会导致人工智能给出‘否’的答案。
所以深层逻辑决定了人工智能会不会‘真智能’。
内容未完,下一页继续阅读