算命的可以算出性取向
事情开始于一项斯坦福大学的新研究。
研究人员Yilun Wang与Michal Kosinski用监督学习算法创造出一种新模型,可以直接从面相判断一个人的性取向,研究论文也即将发表在美国心理学学术月刊《Journal of Personality and Social Psychology》上。
纳尼?!还能根据面相判断性取向?确定我是在看科学期刊而不是误入路边看面相算命的小摊摊?
带着众多问号,我们翻看了实验研究。
面相识“同”?研究人员首先从交友网站的公开信息中收集了14776人的35326张照片,想在照片中提取面部特征。从脸型、嘴型、鼻型、眉形到面部的毛发,这些特征全部被提取并量化。

△ 研究人员先标记面部特征,同时用倾斜度、转动和偏转角度等参数定位人脸
之后,研究人员用深度神经网络(DNN)从中提取与性取向有关的特征。在此,他们引入VGG-Face DNN模型,想通过面部表情、背景、光线、图像属性(亮度或对比度等)等因素来表示图像中的人脸。

△ 系统识别的可以预测性取向的面部特征
随后,研究人员用预测模型、逻辑回归等奇异值分解(SVD)等方法将图像分类,判断哪些图像中的人为同性恋。

△ 这是由数千张图片组成的合成脸,展示了系统观察到的面部特征细微差别。右图中的绿色/红色线条分别代表男女异性恋者/同性恋者面部器官的位置形状
最后,研究人员随意挑选图像,让电脑猜测受试者的性取向,结果证明AI系统的表现明显优于人类——
在没有穿搭风格、人物动作等因素影响的情况下,就单一面部信息而言,分类器识别男女性取向的准确率分别达到了81%和71%。
研究人员还设计对照组让人类判断照片中人的性取向。实验证明,人类对男女性取向识别准确率分别为61%和54%。对比看来,算法的准确率明显优于人类的直觉判断。
如果通过5张以上照片让系统识别人类性取向,则男女性取向准确率分别提高到91%和83%。
研究人员意外地发现,性取向与面部特征存在些许关联,一般情况下,男同有“女性化”特征,女同有“男性化”特征。比如,男同的下颚、鼻子和前额比直男大,与异性恋女性相比,女同的下颚更大,额头更小。
以后连性取向都藏不住了,你害怕么??

