新闻中心
News
对人工智能的应用和治理的态度受哪些因素影响?文章研究结果表明,不仅社会人口因素会造成对人工智能态度的差异,尤其是公众与专家由于知识和培训的差异而产生观点分歧,而且不同的文化价值观也导致对使用人工智能的不同态度。同时,研究结果显示,公众对于人工智能的监管主体和政策存在怀疑,这体现出现行治理方法尚未到达包容性与参与式标准。
为设计出有效而包容的人工智能政策,了解利益相关者对人工智能的应用和治理的态度至关重要。文章运用结构方程建模,面向3524名成年人和425名技术工作者,针对六个人工智能应用场景展开调查。文章发现,除社会人口因素外,个体主义、平等主义、一般风险回避情绪和技术怀疑主义等文化价值观对于人工智能的态度具有重要影响,且专家和公众的观点存在一定分歧。基于上述发现,文章明确了参与式AI治理所面临的挑战,指出“可信赖的人工智能治理”与可信赖的人工智能研发同等重要。
为发挥人工智能的益处,同时减轻其风险,业界需要一种尊重公众多元价值观和信仰的治理策略,而具有包容性的参与式治理应是AI发展框架的核心支柱。然而,由于AI技术的复杂性,公众难以有效地参与对其治理结构的设计,同时相关的讨论晦涩难懂且不透明,以专家为基础的政策制定限制了观点表达的多元化,更容易收到监管捕获的影响。随着人们逐渐了解AI的能力、局限性和社会影响,公众舆论可能迅速变化。
尽管既有研究已对专业人士和公众对AI的态度差异进行探讨,但很少有研究探讨驱动对AI态度差异的基础价值观及其机制。为有效设计AI治理和科学传播策略,本文聚焦研究三个关键问题:第一,社会人口因素、文化价值观和感知利益如何影响人们对AI的态度?第二,这些态度及其影响因素在专家和公众之间有何不同?第三,这些态度及其影响因素在AI不同应用情景中有何不同?
除引入标准的社会学人口变量外,文章还考察了感知的自我和社会利益以及个人主义、平等主义、一般风险回避和技术怀疑主义的文化价值观对态度的影响。作者还比较了专家和公众的态度,并区分研究了对AI不同应用情景的态度。本文所使用的结构方程模型(Structural Equation Model, SEM)如图1。
社会人口因素:既有研究发现,种族、性别和政治意识形态对于核能、气候变化、基因改良食品、辐射等问题态度具有高预测性。而在对AI的态度上,类似的社会人口差异也存在。比如,年轻人、男性、受过教育、城市居民、收入更高的群体被认为对人工智能更为熟悉和感到舒适。
文化价值观:关于风险感知的文化理论认为,“文化”世界观可能比单独的社会人口学因素更加能够简洁和信息丰富地预测对技术风险的态度。文章认为,为寻求包容性治理和沟通策略,引入这一变量至关重要。个体主义(Individualism)、平等主义(Egalitarianism)这两个文化价值观概念来源于Douglas和Wildavsky于1982年提出的网格-群文化理论。前者支持个体负责“在没有社会援助或干预的情况下确保自己的幸福”的社会秩序,而后者追求群体间更加平等,基于固定特征的分层社会秩序。一般风险回避(General risk aversion)概念来自Sharma(2010)年的研究,用于评估对一般生活风险的态度,许多人会放弃更大的利益以避免小型风险。持技术怀疑主义(Techno-skepticism)观点的群体不喜欢使用新技术,对发展新技术的意图表示怀疑,亦反对使用技术解决社会问题。
利益感知:与那些被认为是广泛共享好处的技术不同,关于人工智能的流行叙事通常突显明显的输家,此类叙事将不断增强“技术所带来的差异化收益具有风险”的观点,而影响对人工智能治理的态度。
文章模型描述了人口统计变量、文化价值、对人工智能的感知个体利益和社会利益以及对人工智能使用和治理支持之间的假设关系。如图1所示,本文假设社会人口变量和文化价值影响了利益感知、对人工智能应用和治理的测量结果,但反向驱动关系不存在。并且,由于社会人口变量与文化价值观间可能存在因果关系,本文模型将社会人口变量作为外生变量,允许变量内部之间以及其与文化价值之间存在未建模协方差。
专家与公众态度差异:对其他新兴技术的研究表明,技术经验通常与风险感知呈负相关,专家对与其专业相关的技术风险更为宽容,因此,将政策讨论限制在最富有知识的人群中可能会减弱那些可能感知最大风险的人的影响力。根据此前对比研究,AI专家和公众在对政府、科技公司、美国军方和国际组织的信任方面存在重大差异,在谁应负责治理AI的态度上可能存在潜在巨大的鸿沟。
应用情景差异:AI可应用的情景具有多样性。为更好理解各应用情景间的差异,本文在6个与政策相关的应用情景中探讨了对AI的态度:预测性执法、劳动自动化、医学诊断、自动驾驶车辆、个性化推荐和自主武器。在各个情景中使用AI会引发不同的问题,例如风险、影响分配和公平等伦理问题。
数据方面,龙8游戏唯一官方网站研究团队通过Lucid Theorem平台在线名美国成年参与者,作为公众样本,同时作者招募了425名能够对人工智能产业产生影响的佐治亚理工学院硕士毕业生,作为专家样本。
文章的调查分为两步。第一步调查评估受访者的社会人口因素、文化价值观、除AI以外的技术风险观以及对AI技术的熟悉程度。文章根据既往研究,纳入了性别、年龄组、种族/民族、工作类型、教育水平、家庭收入、城市/农村居住地和政治取向,并参考了评估受访者对其他包括转基因食品、核电、燃煤电厂、疫苗和合成生物学等技术的态度,并在测量文化价值观时借鉴了Kahan等人的操作方法。
第二步调查评估受访者对于人工智能的看法。首先作者确定了受访者个人和社会对于AI技术的利益认知,然后使用李克特量表调查受访者对AI监管程度的意见。为反映有关人工智能的典型论点,研究团队在调查中列出了6个AI应用情景(预测性执法、劳动自动化、医学诊断、自动驾驶车辆、个性化(推荐)和自主武器)的简介,并在6种情景中重复上述两步调查。
第一,公众和专家在关键领域的态度存在差异。与美国公众相比,专家对人工智能的态度更加自信和积极,更有可能认为人工智能技术将带来个人和社会利益,更有可能支持人工智能的一般使用,而美国公众则更持观望态度(如图2)。这一结果符合现有研究,即认为专家和美国公众都高度支持“谨慎管理”。但公众对于监管主体存在不同意见,相比之下,人工智能专家更信任科学和国际组织而不是他们自己的政府来“开发和管理”人工智能。对于不同应用情景,公众的态度基本相似,而专家的观点更具细致差异(如图3)。这些证据表明,随着公众对人工智能的更多了解,其对人工智能的态度可能会发生相当大的变化。
第二,文化价值观因素对态度有强烈影响。调查结果显示,专家和公众意见存在分歧,文章认为这可能是由于两个群体间不同的社会人口特征和文化价值观引起的。本文的专家和公众样本在四个文化价值观方面存在显著差异,SEM模型分析结果表明,个体主义、平等主义、风险回避和技术怀疑的文化价值观对人工智能的态度有很强的预测作用。不过,社会人口因素也存在一些“有趣”的影响,如男性、年轻人、受教育程度较高且收入较高的人既更认为人工智能有益,也更支持其使用。本文还发现,对政府监管的支持往往与受访者的利益感知相脱节,而更直接受到社会人口因素和文化价值观的影响。比如,虽然年龄更大、更保守的受访者对人工智能的利益感知较弱,对其采用也持谨慎态度,但仍不太支持政府监管人工智能。同时,对人工智能的利益感知更强的群体更支持对人工智能的谨慎监管。
第三,文化价值观对人工智能态度的影响不同于受访者对其他技术态度的影响,且受访者对于部分应用场景的态度不同于对人工智能技术的总体态度。平等主义和风险回避主义传统上与对新兴技术的使用持怀疑态度,但在本研究中却显示出对人工智能的更大支持。这意味着人工智能对社会的影响可能被认为与其他技术的影响有所不同。对于预测性执法和自主武器,年长且政治上保守的受访者虽然对AI的总体支持较低,但对于预测性执法和自主武器的AI使用支持率高。对于劳动自动化,从事分析工作和受教育程度较高的受访者更为支持。
第四,利益感知在很大程度上影响对AI应用的支持,但对监管的支持与否的影响较小(见图2)。同样,专家的态度再次比公众更加微妙,包括对个人利益和对社会利益的感知差异要比在公众中大得多。
文章最后探讨了人工智能治理的公众参与经验和教训。根据研究结果,公众对于人工智能的“谨慎管理”有着显著支持,而对于“政府监管”的支持较有限,揭示出人工智能治理缺乏对民意的尊重。为应对这一问题,以参与性为核心的治理战略至关重要,特别是促进公共教育和真正的公众—专家对话,一方面能够帮助公众获取相关信息,提高其参与感,另一方面也能够促进将公众具体经验和价值观运用于科技策略设计,实现更包容、可信赖的人工智能治理。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。
本文由:龙八_long8(中国)官方生物科技有限公司提供







