人工智能的挑战及局限性
06 Feb 2018当我们还没意识到自己在使用人工智能之前,AI就已经渗透于诸多智能产品和商业服务之中,小到我们常用的智能手机,大到我们接触的智能客服。随着AI技术的不断发展,越来越多的人开始关注人工智能的自动化对于我们工作场所、就业和社会的影响。简单来说,人工智能的挑战和局限性给领导者创造了一个“移动目标”的问题:很难在AI浪潮中一直保持领先的优势。每当AI技术试图应用到现实世界但受到障碍时,投资者便会采取观望的态度。为了保持AI技术的先进性,一个有用的方法便是追踪深度学习的最新进展。
深度学习相较于传统的有监督学习的“特征工程”,使用了大规模的神经网络,它可以包含数百万个模拟的“神经元”分层结构,这些神经网络通过训练数据和反向传播算法来学习。虽然深度学习推进了人工智能的发展,但人工智能的实现还有诸多的局限,例如AI方法、业务问题和数据可用性相适应的问题。由于AI系统是经过“训练”而不是建成的,所以各个过程通常需要大量的标记数据来精确地执行复杂的任务,此外,很难分辨一个由深度学习训练的数学模型是如何达到特定的预测或分类。让我们从以下五个方面来探索人工职能的挑战和局限性:
· 数据标签
目前大多数人工智能模型都是通过“监督式学习”进行训练的。这意味着我们必须手工对基础数据进行标注和分类,这是一个相当庞大且容易出错的杂事。例如,开发自驾车技术的公司正在雇佣数百人手动注释来自原型车辆的视频,以帮助更好的训练这些系统。与此同时,如流式监督的新技术也在不断涌现,这种技术能够在数据自然使用过程中被贴上标签,这种半监督的方法减少了需要大量标记的数据集,有可能将大量劳力成本从繁琐的数据标注中解放出来。
· 获得大量的训练数据集
研究表明,使用线性模型的简单的AI技术在某些情况下可以接近医学和其他领域的专家的能力。然而,目前机器学习需要的训练数据集不仅要求被标记,且要求足够大、足够全面。一次性学习是一种新的技术,可以减少大型数据集的需求,允许AI模型在给予少量样本的同时,精确地识别出一个类别的多个实例。由此可以减少AI建模时需要大量训练数据集的问题。
· 可解释性问题
可解释性并不是人工智能系统的一个新问题,随着深度学习的成功和采用,促进了更多样化和先进应用的同时也生成了更多的不透明性。更大、更复杂的模型使人们很难解释为什么达成某个决定,但随着AI应用范围的不断扩大,监管要求也可能导致需要更多可解释的人工智能模型。此时我们采用LIME方法可能更好的提高模型透明度,其目的是试图确定一个训练好的模型依赖最多的输入数据的哪个部分来开发可解释模型的预测。这种技术一次考虑某些数据段,观察预测结果的变化,对代理模型进行微调,并形成更精确的解释。
· 学习的普遍性
与人类学习的方式不同,人工智能模型难以将他们的经验从一种情况转移到另一种情况。实际上,对于一个给定的用例来说,无论是哪一个模型,都只能适用于这个用例。因此,即使在用例非常相似的情况下,公司也必须多次投入资源来训练另一个模型。对这一挑战的一个有希望的回应是转移学习。在这种方法中,人工智能模型被训练完成某个任务,然后迅速将这个学习应用于一个类似但不同的活动。 DeepMind的研究人员在实验中也发现了转移学习的有希望的成果,随着转换学习和其他通用方法的成熟,他们可以帮助组织更快速地构建新的应用程序,并为现有的应用程序提供更多不同的功能。例如,在创建虚拟个人助理时,转移学习可以将用户在一个区域(例如音乐)中的偏好推广到其他人(书籍)。
· 数据和算法中的偏差
随着我们在新的领域部署机器学习和人工智能算法,可能会有更多的实例将这些潜在的偏见问题无意识的融入到数据集和算法。这种偏见倾向于保持嵌入,因此承认这些偏见并采用措施解决这些偏见需要深入掌握数据科学技术以及对现有业务情况更多元的理解。
人工智能是强大的,但实现人工智能所需的技术、工具和流程条件还没有完全达到。但我们需要有足够的信心去相信,随着研究人员和AI开拓者不断的去挑战一些当今棘手的问题,AI终有一天会有全新的突破。
分类: 相关资讯