![](http://imagev2.xmcdn.com/storages/86dc-audiofreehighqps/48/67/CMCoOSQDa6beAAGl0ABgj1O4.jpg!strip=1&quality=7&magick=jpg&op_type=5&upload_type=cover&name=web_large&device_type=ios)
声音简介
一、新媒体技术引发的传播伦理困扰
(一)机器人写作引发新闻真实纠纷
机器人写作主要包括三个环节,即信息抓取、信息处理和信息输出。这个写作流程中存在着一系列风险:网络爬虫所提取的数据是否准确、不带偏见?而且读者并不能够分清哪些是人类记者撰写,哪些是由机器人撰写,因此可能无法对内容进行真实性和客观性进行判断。且机器人生产的内容原创归属也存在争议。
(二)算法推荐损害信息传播业公共属性
今日头条、一点资讯等新闻聚合平台根据点击量或用户信息消费喜好设置内容推荐的机制,不仅会造成内容品质下降,长此以往更会导致同质化内容推荐,使用户置于“信息茧房”中,减少了对多元信息观点的接触,很大程度上损害了信息传播业的公共属性,使得民主社会得以运转的社会共识越发难以达成。
(三)沉浸式传播引发社会恐慌
VR新闻可以引起用户高度的代入感和参与感,但在部分特殊题材的新闻场景中容易带来“恐怖谷”效应,使用户会因即将发生之事的不确定感而陷入高度紧张甚至恐慌的精神状态中。同时,如果长期沉浸于虚拟世界中,用户会愈发模糊虚拟与现实世界的界限,而缺乏对于真实社会的感知。
二、对策
(一)重塑伦理框架
伦理是个哲学问题,其难点在于如何将既有的伦理法则转化成人工智能等新媒体技术可以识别的语言。于新媒体实践而言,业界学者和新闻从业人员迫切需要构建一套新的可以被广泛接受的伦理框架,来指导人工智能系统进行推理和决策。
(二)完善新闻法律
新闻法律法规也面临着重塑和完善的问题。特别是基于深度学习的算法新闻,于监管者和使用者而言都是不透明的,且充满着不确定性。我们需要探索数据保护、算法透明化、平台监管、机器人立法等领域的新路径,确保新闻传播活动在智能媒体时代依然在法律范畴内进行。
(三)以技术完善技术
不少研究者强调,在研发人工智能系统时,要通过技术设计保障该系统的公平性、透明性和可责性,通过技术手段来克服算法黑箱所带来的弊端。遵循同样的技术逻辑,我们需要将重要的新闻伦理和法律规则嵌套到新媒体智能系统中,即社会规范的技术执行。
总之,只有借助传播学、法学、伦理学和计算科学等多学科知识和方法,将法律规制、伦理规范和技术手段综合应用起来,我们才有可能保障新媒体技术为新闻业所善用,在符合伦理规范的轨道上自动前行。
音频列表
- 2020-11
- 2020-11
- 2020-11
- 2020-11
- 2020-11
- 2020-10
- 2020-10
- 2020-10
- 2020-10
- 2023-05
查看更多
用户评论