办公技巧常遇小问题(人工智能接下来应该如何优化?AI目前的盲点)
- 办公技巧
- 2023-08-21 19:58:13
- 0
人工智能(AI)系统的脆弱性问题一直是人们关注的话题。虽然AI在很多领域都取得了惊人的成就,但是稍微的数据错误就可能使系统发生故障,这让人担忧AI在各个领域的应用可能会带来的风险。例如,在图像识别中,微小的像素改变对于人类视觉来说并不会有很大的影响,但是对于机器来说,这可能会导致系统失灵。一篇CVPR 2017论文中提出了这样的观点:“修改一个像素,就能让神经网络识别图像出错”。那么,究竟是什么导致了AI的脆弱性呢?
研究人员探究AI脆弱性的原因有很多。有些人认为是数据不够好,有些人则认为是算法设计不够精妙。然而,最近在科技媒体wired上,计算机科学家Erik J. Larson撰写了一篇文章,提出了一个新的观点:优化思维是AI脆弱性的根源。
优化是推动AI尽可能准确的动力,在抽象的逻辑世界中,这种推动无疑是好的。但是,在AI运行的现实世界中,每一个好处都是有代价的。例如,在机器学习中,需要更多的数据来提高计算精度,需要更好的数据来确保计算的真实性。然而,这种“更好”的数据必须不断地进行收集,因此当AI开始逐渐形成完整的画面时,新数据的出现可能会改变现有的状况,从而导致系统崩溃。
这也解释了为什么大众眼中看似完美的AI经常会出现“犯精神病”的情况。例如,将狗狗当成菠萝,把无辜的人看成通缉犯。这些问题的根源就在于AI的优化思维。
那么,如何解决AI的脆弱性问题呢?Larson认为,我们需要更加注重AI的鲁棒性,即使在面对异常情况时,系统也能够正常运行。这需要我们在设计AI系统时考虑到各种可能会出现的情况,例如数据缺失、噪声干扰等等。同时,我们还需要开发更加智能的算法,以便让AI能够更好地应对各种情况。
此外,我们还需要不断地完善AI的监管机制。由于AI系统的复杂性和不可预见性,我们需要建立一套完整的监管体系,以便对AI系统进行规范和约束,确保其不会给人类带来危害。这需要政府、企业和学术机构等多方面的合作。
另外一个解决AI脆弱性的方向是,探索新的AI算法和技术。例如,深度强化学习已经在很多领域都取得了出色的表现,它可以让AI系统更加智能地处理复杂的任务,从而降低系统出错的概率。同时,我们还可以考虑将AI系统和人类智能相结合,以便更好地应对复杂的情况。
总之,AI系统的脆弱性问题需要我们认真对待。只有通过不断地研究和探索,才能让AI更好地为人类服务。同时,我们也需要充分意识到AI带来的风险,并采取措施来规避这些风险。
本文由 京廊文化根据互联网搜索查询后整理发布,旨在分享有价值的内容,本站为非营利性网站,不参与任何商业性质行为,文章如有侵权请联系删除,部分文章如未署名作者来源请联系我们及时备注,感谢您的支持。
本文链接: /bangong/20815.html