AI MY EYES II: Emotional Mimicry

"Emotional Mimicry"(情绪模仿)是心理学和社会学领域的一个重要概念,指的是个体在与他人交往过程中,无意识地模仿和反映对方的情绪表达和情感状态的行为。这种模仿行为可以体现在面部表情、语音的音调、身体姿态和动作等方面。情绪模仿是人类社会交往中的一种基本机制,有助于促进人际间的理解和情感共鸣,增强社会联系和群体的凝聚力。

—— 厄休拉·埃斯 (Ursula Hess)

 「AI MY EYES II」项目旨在探索人工智能是如何通过创造“拟像(Simulacrum)”的方式,进而以视觉角度影响,甚至干涉人类对于阅读图像时所成情感的感知。

项目通过数据采集,信息提取,拟像生成这三步骤构成。

在数据采集的部分,我以游戏摄影的方式,即在游戏环境中捕捉具有情绪色彩的瞬间,包括角色的表情、身体语言及通过环境、色彩、光线传达的情绪氛围,作为保留虚拟世界中情绪的存储切片。在项目前身——AI MY EYES:Interweaving Realms 中,我将这些游戏摄影图像作为数据集交付给到经过训练的人工智能系统GAN(对抗式生成模型)中,再对其生成内容进行筛选后合成。

AI MY EYES:Interweaving Realms

然而,在本次续作项目——AI MY EYES II:Emotional mimicry中,我将曾经拍摄的游戏摄影图像筛选后,交由给CLIP (Contrastive Language–Image Pre-training) 模型进行图像语义理解,这一系统通过文本重现了图像的视觉特征。再通过迭代后的扩散模型算法(Diffusion Model),将分析出对文本以新的“拟像”形态生成,最终借由数字合成的手段将原图像与“拟像”融合,使其从视觉上产生一种和谐的共生状态。

CLIP (Contrastive Language–Image Pre-training)  模型原理图示

借助上述方式,利用人工智能对图像的理解(将信息从数据中提取)与再生成(将信息转化为原数据媒介),完成“拟像生成”这一步骤。经过与原图像的合成后,每一幅游戏摄影图像都在其原有基础上获得了视觉情绪上的加深与画面观感上的扩展。

即便人工智能的图像分析模型并不完全理解人类的情绪复杂性,但经过其数据分析后,所反馈的符合普世价值理解的文本,与利用其文本进而生成的“拟象”,依旧能够激发观看者对画面中的情绪共情和自然秩序的联想,这种单纯的媒介转化,其产物却下意识地符合了“无意识地模仿和反映对方的情绪表达和情感状态的行为”这一概念,从而达成了一种新型的“情绪模仿(Emotional Mimicry)”。

情绪,是自始至终存在于人性之中,且难以量化的一种状态。项目希望通过AI MY EYES系列中对人类情感与机器感知之间关系的探讨,去引发观众对于视觉艺术、技术和情感共鸣的思考。同时探索在这个处于人工智能爆发前夜奇点的当下,人类情感的存在与客观事实下人性的构成,在科技与艺术媒介中具有一种怎样的辩证关系。

—— 朱浚侨 Kelvin Zhu