伦理学研究(伦理学研究的基本问题是如何处理)



伦理学研究,伦理学研究的基本问题是如何处理

史安斌(清华大学新闻与传播学院教授、博士生导师)

高姝睿(清华大学新闻与传播学院硕士生)

原载于《青年记者》2022年第19期

导 读

人工智能在新闻传播中的运用目前已经从节省人力成本、提高效率发展到延伸专业新闻工作者的感知范围、强化其判断能力的阶段,在新闻生产、呈现和分发等环节都开展了创新性的实践探索。但是,人工智能的运用也为新闻媒体带来了社会偏见扩散的伦理困境。

从技术可供性的视角来看,人工智能(AI)是对计算机科学领域可以模拟、延伸、拓展人类智能的技术的统称,不仅具有思考和自主判断的能力,也具有学习和合作的能力。最初人工智能在新闻传播领域的使用是为了代替重复性高的简单工作,随着智能传播的进一步深入,人工智能在推动新闻传播的实践创新的同时,也成为新闻媒体提升其影响力和公信力的“助推器”。

信息技术的飞速发展驱动社会全方位深入转型,人工智能与去中心化、去中介化、万物互联共同构成了Web3.0的四大时代特征。[1]从“机器学习”(ML)到“自然语言处理”(NLP)的人工智能技术优化了新闻生产链,提供包括信息自动探测、数据提取和验证、文本和图表生产、新闻策展和文本自动标注等拓展从业者效率和影响力的实用工具。总的来说,目前人工智能在新闻传播行业的前沿运用主要是助力生产效率的提升、呈现方式的多元化和分发的精准化。

但是,前沿技术的使用并不能保证新闻传播品质的提升,这就如同互联网和社交平台依靠机器分发的新闻在真实性和平衡性上都比不上报纸和广电等依靠人工把关的传统媒体。从本质上说,新闻生产系统的效用有赖于其输入和产出的信息的品质和可用性的高低。对于无论是依赖传统媒体还是新媒体的新闻传播系统而言,“垃圾进则垃圾出”(GIGO)是一条经久不衰的通则,而其在社交平台主宰的新闻传播生态中尤为突出。由于缺乏传统媒体的把关机制,新闻记者和编辑对信息和数据的掌控权在社交平台主宰的传播系统中被算法剥夺,而后者参与新闻生产和分发的原理和机制以“商业机密”为由被关在“黑箱”之中,缺乏透明性与易解性。在智能传播时代,新闻界遭遇的最显著的伦理挑战是算法对社会偏见的放大和极化作用。社会偏见在机器生产新闻文本的过程中披着“客观”的外衣进行再生产,并且在算法分发的过程中通过“定制化”的方式扩散。智能传播中的偏见和歧视导致党派和种族之间的冲突,撕裂了社会共识,加剧了“乌卡”(VUCA)时代的动荡不安。

本文以智能新闻传播的全链条再造为切入点,对人工智能在新闻传播业界应用的前沿动态进行梳理,并对算法的“负向”助推作用进行分析;以路透社、BBC等主流媒体机构与学界、信息技术行业的跨界合作为例,分析“新闻机器人”和算法在内容生产、呈现和分发之中的应用及其产生的媒介偏见风险和解决方案,以期为国内同行提供镜鉴。

人工智能在新闻传播中的应用前沿

人工智能在本世纪初就进入新闻传播学界和业界的视野,通过各方协同创新将“机器写作”“虚拟主播”“精准分发”等提高内容生产分发效率和传播力的未来愿景逐步变成现实。另外,新媒体和前沿科技的广泛运用也改变了媒体从业者的生存环境,在为新闻生产“添翼”的同时也带来了“失能”的隐忧。调查显示,美国新闻机构的从业人员数量从2008至2022年间减少了26%,以互联网和社交媒体为首的新技术挤占了传统媒体记者和编辑的生存空间。[2]为此,在当下竞争加剧和资源匮乏的大环境中,新闻传播业界应当把人工智能视为转型升级的“突围”方向。人工智能在新闻传播业界的前沿应用着眼于“人机耦合”视角,为媒体从业者注入新的创新,而非落入“技术中心论”的窠臼,陷入使用机器简单替代专业新闻生产的“勒德教”(Luddite)困境。总的来看,人工智能在新闻传播中的应用前沿主要集中于以下三个领域。

第一,新闻生产。人工智能可以成为新闻记者和编辑的“助手”,运用智能语音识别技术将其从转录音频或视频采访的重复性劳作中解放出来,从中节省出时间和精力能够投身于深入思考和专业解析中,从而提升新闻报道的品质。早期的AI运用集中于有关股市变动和体育赛事等“公式化”的主题写作。近年来,AI也开始赋能专业记者和编辑处理数据深入分析和调查报道线索识别等更为复杂的工作。除了财经和体育新闻报道,AI也进入了法治新闻等更为专业化的领域当中。

近来,一套名为“立法新闻提示表”(LNTS)的人工智能新闻报道系统被广泛运用于法治新闻的报道场景当中。[3]这个由AI驱动的新闻报道辅助工具可以通过系统搜索和收集与美国各州立法会议有关的具有新闻价值的事件,为记者及时提供事件背景数据,从而方便他们进入更为深入的后续采访。例如,今年6月美国最高法院做出有关“堕胎权”的仲裁后,引发舆论的高度关注。各州立法机构也纷纷展开辩论,制定相应的法案。对于这类具有高度争议性和关注度的议题,AI系统可以在数据出现井喷或异常时向记者发送“新闻预警”,提供包含相关事件背景信息的模板文本。地方媒体的专业记者和编辑借助于LNTS分析议员之间的对话,可以监测和跟踪他们之间的“拮抗”关系,从而对各州立法的结果进行准确的预测,影响舆论的走向。

这套AI新闻报道系统还可以帮助记者捕捉到日常工作中难以发现的线索,将新闻生产者的“触角”延伸至以往报道匮乏甚至于完全缺失的领域。例如,通过历时性的资料收集,该系统可以汇总各州议员的投票历史,判断特定人选的投票结果是否与之前的立场相悖,并向记者及时提供相关数据,使其能够把更多的时间和精力投入深入的思考和解读中。

显而易见,这套系统可以有效节约人力和财力,可以自动生成包含从众多新闻网站之中收集的信息线索的“菜单”或“食谱”供记者随时调用和搭配。另外,该系统还借助于传感器技术来帮助新闻媒体完成远程资料和数据的收集工作。在堕胎立法争议的报道中,加利福尼亚州、佛罗里达州、得克萨斯州和纽约市等新闻“热点”地区都对该系统开放了当地立法机构和会议的访问权,从而大大提升了新闻媒体跨地域的报道效率。值得注意的是,LNTS是多方合作联手开发的创新成果,专业记者、编辑、数据科学家、工程师、新闻学院的教授携手合作,推动产学研一体化的全链条再造,为解决长期以来新闻业界、学界和教育界之间相互“脱钩”的积弊探索出了一条新的道路。[4]

第二,新闻呈现。AI的运用可以优化和丰富新闻报道的表现方式,增强了产品、内容与用户之间的互动性,帮助用户获得临场的个性化体验,同时也提供更为高效的信息服务。算法推荐系统可以根据用户的偏好和所处场景,为其提供定制化的环境信息和服务,有效提升用户黏性。

2022年2月,路透社和从事AI研发的“合成媒体”(Synthesia)公司发布了世界上首个以虚拟主播为中心的自动化播报系统。该系统建立在路透社视频素材库的基础上,将专业体育主播的影像和与AI相结合,创建了一个可编程的虚拟主播来进行赛事报道和分析。路透社的图片摄影和视频报道为这位虚拟主播提供信息和观点,甚至可以细化到主播的一招一式,不仅无需任何的人工脚本、编辑和制作,还能够自动创建新闻摘要和字幕,根据传统媒体和社交平台的需求创建与之适配的不同播放版本。[5]

2021年初,BBC管理层关注到62%的在线用户每天收听播客,时间从30分钟到4小时不等。为此,BBC与微软合作开发了AI辅助的播客App,借助深度神经网络创建出具有自然语调和清晰发音的合成语音。起初作为BBC名牌系列节目“生活方案”(The Life Project)”的一部分推出,将16篇新冠肺炎疫情期间为读者提供生活指南的专题文章以音频方式呈现。获得广泛好评后,该产品又拓展内容,精选BBC网站特色垂类频道的优质文章以播客形式推出。

用户可以在电脑、智能手机等多个终端上获取这个App,在浏览精选文章时会收到“收听文章”提示,并且可以选择后台不间断的播放以获得“伴音”体验。更具特色的是BBC为此开发的合成语音系统。此系统具有位于柔和音域的声音,以其圆润、拟人化的音质给人温馨的感受。此外,合成语音还具有更为显著的包容性和适应性,音频可以在文本编辑时根据不同的需求自动更新,并根据不同的内容调整播报的音调和音色[6]。

第三,新闻分发。在信息过载时代,运用AI不仅能够对新闻媒体生产内容进行精准分发,提高触达率,还可以为用户提供定制化、个性化的信息。初代“新闻推送”功能主要是基于时效性的考量,辅以AI可以将基于内容的推荐、协同过滤和时序流行度相结合,采用“混合概率”的新模式而非传统的“相似性”原则进行推送。谷歌新闻(Google News)是这一新模式的先行者,通过计算历史点击数据或互动频率等数据预测用户的偏好,根据每名用户的不同配置信息为其量身定做“我的日报”。

基于内容的算法推荐和用户之间的协同过滤可以满足不同的用户在“冷启动”“短暂兴趣”“长期偏好”等三个方面获取定制化的内容需求,并将用户的兴趣标注为对某些内容特征的偏好,从而维持更长时间的关注度,尽可能降低由“冷启动”带来的用户数据的“稀疏度”。借助于“协同过滤”可以合并用户近期的兴趣和浏览行为,满足短时间内用户对信息新鲜度和热度的需求。总的来看,人工智能新闻推送系统有利于通过提供个性化信息的方式增强用户黏性和忠诚度,通过提升用户的消费意愿提振新闻产品的价值转化。

当前AI在新闻传播领域的应用不仅可以给予新闻生产者更多的便利,也可以在新闻呈现上更加人性化,并为用户提供个性化的内容消费体验。但不容忽视的是,AI算法在提高新闻传播运作效率的同时,也蕴含着“把关人”权力转移的危机,从而成为加剧偏见和谬误扩散的催化剂,导致国家和社会在种族、党派、性别等议题上的撕裂。

智能传播中的偏见扩散

从本质上看,AI是人类编程基于特定目标,对数量庞大的特定数据集进行“训练”的成果。基于数据的质量、根深蒂固的社会偏见和蓄意煽动群体对立冲突的行为,AI可被用于生产和扩散虚假信息,固化偏见,加剧分裂。更有甚者,由于“算法黑箱”的存在,人们无法识别出这些虚假信息和数据的来源和形成方式,这就进一步提升了互联网治理的难度。

在新闻生产的过程之中,“算法偏见”的主要来源并非是算法本身,而是底层数据的收集和筛选结果。新闻生产算法模型分为“训练器”和“筛选器”两部分。“训练器”的偏差主要是在基础数据库和训练过程中产生;而“筛选器”则可以根据“训练器”的预测模型使用包含人类决策和带有社会偏见的数据进行“次级训练”。例如,在海量新闻文本基础上“训练”出来的“词嵌入”技术强化了固有的有关性别的刻板印象,而算法设计者即便没有突出性别偏见,也依然会因为被其他变量编码而将带有性别偏见的词条“嵌入”最终显示的文本当中。

更有甚者,人类也会蓄意利用算法偏差误导和操纵偏见,这便是“计算宣传”的由来。2022年2月,丹麦哥本哈根大学进行多模态人工智能感知研究的学者杜尔(Brian L. Due)在其论文中将散播社会偏见的人工智能技术分为三类,一是社交机器人,二是平台内置算法工具,三是人工合成的虚假人物“档案”。首先,目前从“社交机器人”(social bots)到“深度伪造”(deepfake)等多种借助于人工智能技术的计算宣传手段层出不穷。大量蓄意散播偏见的社交机器人在Facebook和Twitter等全球性社交平台上泛滥成灾。这些“僵尸军团”在关键性议题上散播海量的带有偏见和歧视性的“谬讯”(disinformation),误导公众认知和舆论,降低了民众对政府、媒体等公共机构的信任度,让选举、公投等政治活动的走势发生戏剧性的逆转,甚至于挑动暴力行为和群体冲突,从而加剧了社交平台的“武器化”倾向。[7]

其次是特定社交平台内置的人工智能工具所产生的社会偏见。这些以提升工作效率为目标的工具基于“规范性分析”的机制,通过将下一步行动“嵌入”算法来操控用户的行为偏好。例如,社交平台上的词句联想和自动生成的功能和对图片、视频选择的暗示或诱导,都会影响用户对下一步行动的决策。如果使用特定的数据对这些工具进行“训练”,就会导致社会偏见的隐性扩散。杜尔对Twitter的“人工智能裁剪”进行研究后发现,虽然这一工具帮助用户自动选取“精华”部分作为缩略图进行展示,但它优先选择的往往是白人而非少数族裔。

再次还有利用“虚拟网红”来散播似是而非的偏见性内容。虚假的“合成人设”拥有比“社交机器人”更加拟人化和有说服力的背景资料,在社交平台上更容易成为受到粉丝追捧的网红意见领袖(KOL)。在“领英”(LinkIn)等交友平台上,出现了一个名为“凯蒂·琼斯”(Katie Jones)的网红,她与多名美国政界顶级人物建立社交网络。美联社在对其照片进行分析和比对之后宣告此人不存在,她的面部特征都由人工智能进行合成,并将此类行为定性为社交平台上兴起的“隐身间谍”活动。

在新闻呈现的方式上,机器人的形象设计在外观和语音上反映了一定程度的社会刻板印象,并通过与用户的精准互动促进了偏见的深度“内嵌”。在新闻机器人的多元呈现方式中,最为明显的伦理困境便是性别偏见,这种偏见主要来源于对机器人的“类人化想象”。最为常见的是具有性别特征的机器人与不同工作与任务相联结的“职业偏好”。例如,虚拟主播通常设定为青年女性,而虚拟评论员通常设定为中年白人男性,这在一定程度上复刻了传统媒体实践中的“刻板印象”。另外,调查显示,用户会更多与具有女性特征的机器人产生情感上的亲近与信任,并且默认“女性”机器人更适合从事信息服务类的工作。

目前最普遍使用的AI机器人是“语音助手”,而具有“专属性”和“服务性”的语音助手通常被设定为青年女性,例如Windows系统的小娜(Cortana)、苹果系统的Siri和亚马逊的Alexa等。这样的人设不仅加深了原有的性别偏见,而且出现了用户“调戏”语音助手的大量案例。“小娜”的语料编写者透露,在其上线初期的对话请求中包含了大量的色情露骨内容。

为了解决这个问题,2019年3月,哥本哈根大学的语言学家和软件工程师合作,推出了全球首个无性别语音助手Q。其音质采集自五个不同性别的原型并进行合成和训练。系统研发者还在欧洲进行了4600人次的测试,最终将Q呈现为频率在145赫兹上下的“中性”声音。Q的出现是对AI固有的“无意识偏见”的揭示和反抗,目的是彻底消除智能传播领域的性别刻板印象,充分彰显新媒体的社会责任。这意味着人工智能在新闻传播领域的运用逐渐跳脱了技术中心主义的窠臼,成为社会改革和进步的工具,也意味着AI在新闻传播领域的实践创新中,应当制定更高的产品标准,更为严格地界定用户特性。[8]

在新闻的推荐分发上,算法对内容可见性和可及性的影响会导致“拟态环境”中对特定事件不同观点呈现的权重失衡,从而导致新闻舆论场撕裂和极化。在平台化时代,算法接管了长期以来传统媒体“把关人”的角色。因此,持有不同立场的社群将偏见的扩散归咎于平台出于政治目的对“新闻菜单”的选择性呈现。

除了算法本身的偏差之外,相关研究发现,在线广告定位中的种族差异相当显著,用户生成的在线数据会产生固化偏见的“反馈闭环”,导致种族偏见成为智能传播中的“抗解问题”。虽然从理论上讲,不同观点的数据库储存应当体现“权重均衡”的原则,但用户的搜索行为会打破这种均衡状态。他们更加频繁点击含有某种观点的内容,尤其是在受到算法推荐的诱导之下。这样一来,算法之中的协同过滤机制对特定观点会更加“敏感”,某一方信息的可见性会呈现出几何级数的增长。目前,社交平台已经成为首要的新闻来源,每天数十亿全球用户的点击和搜索行为客观上起到了固化偏见和加剧分裂的作用。

近来,AI助推偏见扩散的“抗解难题”引发各方关注,要求强化算法治理的呼声越来越高。美国国会就偏见、“误讯”和内容审核等议题召开了多次听证会,传唤Facebook创始人扎克伯格等社交平台巨头。一些民权组织也发起了诉讼,迫使后者承担起打击仇恨言论和调整算法模式的责任。

智能媒体时代社会偏见的治理

平台化时代,社交平台算法的广泛运用加剧了社会偏见扩散的危机。算法本身的机制性偏差和一些使用者的蓄意利用,都使得算法成为危害社会公平正义的重要因素。除了强化法制层面的“他律”进行“治标”之外,推动和深化技术“自律”才是治本之道。对社会偏见扩散进行消弭需要从算法核验、智能偏见探测和人机耦合三个方面入手,充分发挥人工智能和人类智能的协同作用。

首先是算法核验。从算法在新闻传播之中的运用逻辑入手,对算法依托的基础数据库和算法运行的规则进行公平性核验。并且对AI新闻产品的生产、呈现方式和分发结果进行监管,消弭算法对社会偏见的催化作用。

第一个步骤是加强数据的“预处理”,让数据库储存数据保持精准和公平,有意识降低算法推荐与输出结果的关联性,由此生产出能够呈现不同立场和观点的新闻文本。AI新闻应当通过有意识地增加更多“数据点”来适当提高非主流观点的权重,并且在数据处理的过程中引入“反事实公平”(counterfactual fairness)的核验方法,从而对边缘弱势群体的歧视性内容进行“稀释”和“过滤”,确保信息传播的公平性。

第二个步骤是完善对技术的“后处理”,根据模型输出预测的结果,对输出内容按照“适配公平化”的原则进一步修正。

第三个步骤则是在增强透明性的同时,增强算法系统的“易解性”,主要是对具体决策的达成方式和导致结果的数据特征进行合理化解读,帮助用户核查在决策过程中所考量的因素是否包含偏见。[9]

其次是智能偏见探测。为了加强对假新闻和仇恨言论的打击,新闻传播学界和业界联手开发了各类评估新闻文本的偏见和可靠性的算法工具。这些工具普遍存在的缺陷是,AI在对信息和观点进行识别的过程中,通常依据的是词句的本义,而对于与其引申义相关的戏仿、恶搞、反讽则显得力不从心,这些细微而灵活的语义变化还不能被传统的“自然语言处理”(NLP)技术所捕捉和理解。

2022年初,美国普渡大学计算机科学教授戈尔德瓦瑟(Dan Goldwasser)将机器学习技术与社会关系和行为模型相结合,开发出一种更好理解社交媒体帖子发布者意图的算法工具。他指出,不论是理解简短推文还是“迷因”(meme)的含义,识别隐性偏见的算法工具都要增加理解叙事过程和语境信息的功能,而如何将对语言符号的理解进行概念化,这正是未来算法工具的转型升级过程中应当解决的首要问题。[10]

“算法审核”是目前较为成熟的有效工具之一。在缺乏人工监督和干预的情况下,机器人通常会在“特征优先级”方面选择带有偏见性的语素作为算法推荐的最佳预测因子。这类工具的使用可以帮助机器人纠正这一趋向。例如,对于YouTube等视频网站而言,使用“算法审核”可以帮助我们了解哪些类型的视频会被优先推荐,其推荐系统是否有意散播偏见性信息。虽然“算法审计”和“反事实公平”等工具引入新闻传播业的成本还比较高昂,实际运用还比较有限,但“智能偏见预测”已经成为提升算法治理水平的突破点,未来成果及其广泛运用值得期待。

再次是人机耦合。在人工智能得以广泛运用的当下,“人类智能”的作用不仅没有被削弱,反而在算法治理中得以强化,这一点在新闻传播领域表现得尤为突出。人机耦合与协作也被证明可以在新闻生产、呈现和分发的过程中有效阻断偏见的扩散,提升新闻媒体的公信力和可靠性。调查显示,算法依赖于数据库的特性可以为新闻用户提供“客观”“准确”的观感,但是用户对真人记者的信赖度又高于新闻机器人和算法推荐。因此,从理论上说,机器自动生成的文本与真人记者的专业素养相结合,能够实现智能传播可信度的最大化。从实践运用来看,人机耦合与协作需要依赖跨学科、跨领域的技术研发,协商如何在新闻传播实践中“内嵌”道德标准,并建立起行之有效的“算法问责”制度。

“人机耦合”的尝试不仅是制度和标准的建立,更重要的是借助于机器的力量提升人类的道德伦理水平。因此,识别算法偏见也是给新闻传播业界提供了一个重新思考人类决策公平性的机会,具体包括在何种情形下需要倚赖人的判断,允许人以什么方式进行判断,谁来决定何时达到“偏见最弱”的条件,从而将算法推荐“安全释出”?在哪些情况下可以允许完全自动化的决策?这些问题无法通过优化算法的方式解决,也不能完全交付机器。与评估算法相比,回顾和评定人类使用AI时的实际情况则要复杂得多,这也引发了有关“程序公平”和“结果公平”的讨论。当媒体从业者意识到由人类训练的算法出现偏见时,不应该简单叫停或禁用,而是应该考虑潜在的人类行为是否违背了社会公平原则,同时也对人类决策进行相关的偏见测试。新闻媒体提高自动化决策的标准,也意味着应当对人类决策提出更高的要求。[11]简言之,从道德伦理的层面来看,“人机耦合”的最终目标是推动人类智能与人工智能的共同进步。

小结与展望

人工智能在新闻生产中的运用目前已经从节省人力成本、提高效率发展到延伸专业新闻工作者的感知范围、强化其判断能力的阶段。人工智能可以在生产过程中拓展记者搜集新闻线索的范围,并增强他们对新闻内容的理解,在新闻呈现阶段为用户带来更加多元的体验,并且在新闻分发的过程中为用户筛选出类似于“我的日报”这样的定制化内容。但是,AI运用也为新闻媒体带来了社会偏见扩散的伦理困境。为了回应这一挑战,新闻传播学界与业界共同努力,通过在技术维度上的“算法核验进化”和社会维度上的“人机耦合”为消除偏见和维护社会公平开辟了创新路径。

应当看到,消除机器算法的偏见与消除人类社会的偏见一样充满挑战性。在现实生活中,偏见以隐蔽的方式影响对特定群体和个人持有的态度和行为。消除偏见的主要阻碍便是偏见的“无意识性”。这种隐形的偏见是在日常生活中不断接触到的关于他人的直接和间接信息中日积月累而形成的,与对“他者”认知的发展交叠在一起贯穿于整个人生的发展历程之中。消除偏见的另一个困难是偏见的“有效性”。偏见已经在某种程度上演变为一种可以增强决策过程的“保护机制”,尤其是当决策面临的风险较高时,人们通常会选择墨守成规的“保险方案”,从而将根深蒂固的偏见保持下去。心理学领域用于隐性偏见预测的一种行之有效的偏差评估工具是“内隐联想测验”(IAT)。其结果显示,虽然可以使用技术手段提示个体存在的隐性社会偏见,但依旧很难带来个体行为的改变。

偏见作为人类社会中无法根除的痼疾,应当实施更为长期化、系统化的举措来消弭其负面影响,阻断其扩散机制。在智能传播时代,社交平台作为公众获取信息的首要渠道既要推进人工智能的深入运用,也要重塑传播生态,弥合社会裂痕,维系人类社会的长治久安。从更为宏观的层面上看,模拟和拓展人类智能的人工智能技术应当嵌入人类社会运作的方方面面,推动包括新闻传播在内的各个领域内的创新探索。在“人类智能”力有不逮的情境下运用“人工智能”对社会偏见进行有效治理,也应当在“训练”人工智能走出其伦理困境的同时,带动人类社会在道德伦理水准上的共同提升。

参考文献

[1]Xu Y, Guan K, Lei L. Review on the principle, Progress and Application of Block chain Technology[C]//Journal of Physics: Conference Series. IOP Publishing, 2020, 1651(1): 012041.

[2]MASON WALKER. U.S. newsroom employment has fallen 26% since 2008[EB/OL]. (2021-07-13). https://www.pewresearch.org/fact-tank/2021/07/13/u-s-newsroom-employment-has-fallen-26-since-2008/.

[3]Howe P, Robertson C, Grace L, et al. Exploring Reporter-Desired Features for an AI-Generated Legislative News Tip Sheet[J]. Special Issue Theme: AI and the News, 2022: 17.

[4]Barbara Gutierrez. Can artificial intelligence help journalists?[EB/OL]. 2022-07-01. https://news.miami.edu/stories/2022/07/can-artificial-intelligence-help-journalists.html.

[5]Reuters Staff. Reuters and Synthesia unveil AI prototype for automated video reports[EB/OL]. (2020-02-07). https://www.reuters.com/article/rpb-synthesia-prototype-idUSKBN2011O3.

[6]BBC. BBC Global News launches AI-powered synthetic voice which ‘reads’ articles on BBC.com[EB/OL]. 2020-11-16. https://www.bbc.co.uk/mediacentre/worldnews/2020/life-project.

[7]Brian L. Due. When robots make biased fake content on social media[EB/OL]. (2022-02). https://www.goethe.de/prj/one/en/aco/art/22740616.html.

[8]Meet Q. FULL SPEECH[EB/OL]. (2019-03-09). http://www.genderlessvoice.com/.

[9]Waddell T F. Can an algorithm reduce the perceived bias of news? Testing the effect of machine attribution on news readers’ evaluations of bias, anthropomorphism, and credibility[J]. Journalism & mass communication quarterly, 2019, 96(1): 82-100.

[10]Goldwasser D. Teaching computers how to identify ideology: Using AI to deduce bias in social media and news articles[J]. 2018.

[11]Silberg J, Manyika J. Notes from the AI frontier: Tackling bias in AI (and in humans)[J]. McKinsey Global Institute, 2019: 1-6.

伦理学研究(伦理学研究的基本问题是如何处理)

未经允许不得转载:在线考研网 » 伦理学研究(伦理学研究的基本问题是如何处理)



赞 (0) 打赏

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏