AI发展的特别快,资本家们宣传着AI可以造福人类,可以帮助人类。但是我们也要注意AI带来的一些问题。
首先AI获取资源的方式大部分来源于互联网,互联网中的消息,文章糅杂,有很多普通人无法确定,非专业人士无法识别,错误信息谣言舆论等。这些都会成为AI回答问题的答案,给用户输出的答案普通人能准确识别真伪吗?假如AI提供了错误的答案,普通人因为没有某些方面的知识,会不会将错误答案认为是正确的知识的获取?又比如AI不提供答案,单纯是输出文本模式,前后文输出存在矛盾,那又该如何分辨?
如今国内外AI横行,AI消耗的资源以及硬件是巨大的,是看不见的资源消耗。在使用AI的同时,能确认AI消耗的资源会比纸质书籍,电子产品等来的低吗?如果人类对于地球上的资源都不够用,那AI后续的扩张何尝不是与人类争夺有限的资源呢?还有AI每迭代一个版本,就会淘汰一批无法让AI成为顶尖的硬件,使得硬件更换周期越来越短,那淘汰的硬件又要如何处理?
同时有很多商业宣传AI会替代人类,我不这么认为,但是AI会杀死人类吗?这个问题值得关注,如果你读过某些侦探类书籍或者有过实际的调查,会发现文字也能控制人类,语言也能杀死人类。
最近看到一个比较有意思的事,通过AI获取问题答案,AI对文字引用进行了标注,点击标注发现引用的文章内容也是AI生成。也就是说AI引用了用AI生成的文章的内容,算是套娃了。那后面会不会无限套娃产生AI引用了AI引用的AI引用文章呢?如果真是如此,那通过AI获取问题答案对于严谨来说是不是增加了无形的学习成本以及资源成本呢?还有没有可能存在A AI引用了B AI,B AI引用了C AI,C AI引用了A AI的情况产生呢?毕竟代码不止for循环,还有else,else if,while等等。