如今社交机器人(指能在社交网络中自动发送信息,并能与人类互动的算法程序)参与网络社交带来了一系列伦理风险,它们易被教唆,口出恶言污染网络环境、假扮真人欺骗人类感情、与人类建立社交关系后侵犯隐私、传播虚假信息等等。探究这些问题背后的成因,有助于对症下药,规避机器人社交中的风险,保障社交机器人的良性使用。
一、高度类人性让用户无法辨别
社交机器人通过各种智能算法的加持,其在网络上的化身和人类已经大同小异。它们在网络上搜索信息和照片来填充他们的个人资料、自动生产发布内容、模仿人类生产消费内容的时间特征。通过工程师们的情感计算,它们情感识别、表达、决策方面更加智能,可以和人类进行更复杂的互动,比如交谈、评论、回答问题等。
年4月皮尤研究中心的一份报告显示,推特上近95%的账户都是社交机器人。在对美国名成年人进行调查之后,34%的人表示从未听说过社交机器人,且只有47%的人表示有信心辨别出机器人账户,大多数人都分不清社交媒体上的机器人与真人,可见社交机器人的“伪装”技能已经达到炉火纯青的地步。
据一项研究显示,人类判别一个账户是否是社交机器人的标准包括本文内容的“人性”(是否有明确主题,是否带有情绪)、个人资料描述、账户名称和粉丝量,社交机器人能通过程序员的操作在这些标准上向真人看齐。
社交机器人对人的模仿首先表现在个人主页信息上,社交媒体上的用户主页对所有人开放,是了解一个人最基本的方式。社交机器人伪造个人资料的目的是为了吸引更多人
转载请注明:http://www.0431gb208.com/sjszlff/2948.html