直到最近,它一直是一个挑战令人信服假的社交媒体简介大规模因为图片可以追溯到他们的来源,和文本通常听起来不像人类。
今天与快速的发展人工智能它是越来越难以区分。哥本哈根商学院的研究人员决定进行一项有375人参加的试验测试的难度区分真实和虚假社会媒体资料。
他们发现受试者无法区分人工生成的假Twitter账户和真实的,事实上,认为假账户不太可能比真正的是假的。
研究人员创建自己的模拟Twitter的主题是战争的乌克兰。提要包括真实的和生成的配置文件与微博支持双方。假资料用电脑合成与StyleGAN档案图片创建,和GPT-3生成的帖子,相同的语言模型,ChatGPT后面。
“有趣的是,最受争议的账户的准确性和可能性问题属于真正的人类。一个真正的概要文件标示错误的假41.5%参与者看到了。同时,表现最好的一个假的资料只是贴上机器人10%,”博士研究员Sippo罗西说,中心的业务数据分析的数字化在哥本哈根商学院。
“我们的研究结果表明,该技术用于创建生成的假资料拥有先进的这样的一个点,很难区分真正的概要文件,”他补充道。
的研究提出了在夏威夷国际会议系统科学(HICSS)
“以前是很多工作创造逼真的假资料。五年前,普通用户没有创建假资料的技术在这个规模和从容。今天,它很容易上手,许多可用,没有几个,”合著者Raghava Rao说Mukkamala,中心主任的业务数据分析的数字化在哥本哈根商学院。
从政治操纵错误信息网络欺凌和网络犯罪的扩散深度learning-generated社交媒体档案对社会和民主有着重要的影响。
“威权政府洪水社交媒体与看似支持人们操纵信息这是必要仔细考虑这些技术的潜在后果,努力减轻这些负面影响,“Raghava Rao Mukkamala补充道。
研究人员使用一个简化的设定参与者看到一个微博账户的配置信息,发布,下一步研究将机器人是否可以正确确定从一个新闻提要讨论不同的虚假和真实的档案在哪里评论在同一线程中一个特定的新闻文章。
“我们需要新方法和新方法来处理这个精灵的灯现在几乎不可能。如果人类无法检测假资料和文章和报告他们就会自动检测的作用,如删除账户和ID验证和其他保障措施的发展这些社交网站运营的公司,”罗西Sippo指出。
“现在我的建议是只相信人在社交媒体上,你知道,”罗西Sippo结束。