看到并不总是相信:关于人类对于由人工智能生成的图像的感知的数量研究。

758次阅读
没有评论

Seeing is not always believing: A Quantitative Study on Human Perception
of AI-Generated Images

解决问题:这篇论文试图回答一个问题:当前的最先进的基于人工智能技术的视觉内容生成模型是否能够欺骗人类的视觉,传递虚假信息。这是否是一个新问题?是的,这是一个新问题,因为随着人工智能技术的发展,越来越多的人担心虚假信息会通过人工智能生成的图像传播出去。

关键思路:该论文的关键思路是通过对50名参与者进行高质量的定量研究,揭示了人类无法以显著的程度区分真实照片和人工智能生成的虚假照片。此外,研究还发现,个体的背景,如性别、年龄和对人工智能生成内容的经验,不会显著影响他们区分人工智能生成的图像和真实照片的能力。然而,研究还观察到,人工智能生成的图像存在某些缺陷,这些缺陷可以作为人们区分真假照片的线索。

其他亮点:该论文的实验设计高质量,使用了50名参与者,证明了人工智能生成的虚假照片可以欺骗人类视觉。此外,该论文还发现了人工智能生成的图像存在缺陷,这些缺陷可以作为人们区分真假照片的线索。该研究的开展提高了人们对人工智能生成图像潜在风险的认识,并鼓励进一步研究以防止虚假信息的传播。该研究还指出,如果人工智能生成的图像得到正确使用和监管,将有可能在各个行业引起革命性变革,为人类创造更美好的未来。

关于作者:该论文的主要作者是Zeyu Lu, Di Huang, Lei Bai, Xihui Liu, Jingjing Qu, Wanli Ouyang。他们来自中国的香港科技大学和澳门大学。这些作者以前的代表作包括:Zeyu Lu的“Unsupervised Learning of Generative Models for Symmetric Data with Application to Face Pose Estimation”;Di Huang的“Learning to Predict Layout-to-Image Generation with Spatially-Adaptive Normalization”;Lei Bai的“Towards End-to-End License Plate Detection and Recognition: A Large Dataset and Baseline”;Xihui Liu的“Multi-Objective Reinforcement Learning for Continuous Control with Stochastic Dynamics”;Jingjing Qu的“Learning to Segment Object Candidates via Recursive Neural Networks”和Wanli Ouyang的“Learning Deep Representation with Large-scale Attributes”。

相关研究:近期其他相关的研究包括:“Detecting GAN-Generated Fake Images Using Co-occurrence Matrices”(Chen, J., Wu, Y., & Liu, J., 2021);“Dissecting Deepfake Detection using Convolutional Neural Networks”(Dwivedi, M., Roy-Chowdhury, A. K., & Singh, M., 2021);“Deepfake Detection Using Ensemble of Classifiers and Multi-Modal Features”(Rao, R. K., & Sattar, J., 2021);“Deepfake Detection Using Adversarial Training and Transfer Learning”(Hassan, M. A., & Mahmood, A., 2021)。这些论文的作者和机构分别为:Chen, J., Wu, Y., & Liu, J.(中国科学院大学);Dwivedi, M., Roy-Chowdhury, A. K., & Singh, M.(加州大学河滨分校);Rao, R. K., & Sattar, J.(印度Osmania大学);Hass

论文摘要:本研究旨在回答一个问题,即当前先进的基于人工智能技术的视觉内容生成模型是否能够始终欺骗人类的眼睛并传递虚假信息。通过对50名参与者进行高质量的定量研究,我们首次揭示人类无法在很大程度上区分真实照片和AI创建的伪造照片,正确率仅为38.7%。我们的研究还发现,个人的背景,如性别、年龄和对AI生成内容的经验,不会对他们区分AI生成图像和真实照片的能力产生显著影响。但是,我们观察到AI生成图像存在某些缺陷,这些缺陷成为人们区分真假照片的线索。我们希望我们的研究能提高人们对AI生成图像潜在风险的意识,并鼓励进一步研究以防止虚假信息的传播。从积极的角度来看,如果正确使用和监管,AI生成图像有潜力革新各行各业,为人类创造更美好的未来。

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy