最近,google的ai大模型g mmi陷入了一场丑闻严重的丑闻,这是一个被寄予厚望的绘画产品。结果居然画不出白人,这到底背后是什么原因呢?我们今天来探寻一下jimmy i pro在生成形象的时候,会发现没有任何一个白人形象出现,全都是黑人女性或者少数族裔。这个结果让这个很多用户感到非常的愤怒,特别是白人用户,他认为google传递的价值观有严重的偏差,是种族歧视。在美国这个政治正确的国家,种族歧视这个指控可不是一件小事儿。他会让一家公司这个被置身于风口浪尖重视之地。结果google的ceo马上跳出来召开新闻发布会,紧急灭火,说我们错了,我们马上把这个g m a的产品下架。这个问题可能源于两个方面,一个呢是模型的训练,数据的筛选,还有一个就是模型算法参数的调节。呃,a i大模型基本上都是要过大量的数据去学习的。如果在预先准备数据的时候,存在数据的不平衡,就可能导致训练出来的这个算法出现偏差。很可能google为了保证所谓的政治正确,特意在训练图像当中加入了大量的黑人女性、少数族裔这样的样本。结果由于ai算法学的这样的样本多,最后得到的结果画出来的也多,这就是样本导致的偏差。另外呢也有可能是ai算法的参数调整的过程当中引入了偏差。比如说google可能要求它所生成的四张图像当中,必须要充分的覆盖这个种族的多样性。一定要有女性,要有黑人,要有少数族裔。那总共四张图这几个要求一加上去,白人几乎就没有地方了,于是结果就离谱了,就出现了黑人的马斯克,黑人的美国总统华盛顿,黑人的天主教皇。这次丑闻其实反映出来的是a i技术在处理一些敏感的问题的时候很容易跑偏。呃,我们为了解决这样的问题,专门会有一个技术叫做价值观对齐,也就是value alignment。呃,也就是告诉a i什么话能说,什么话不能说,要让ai跟人类正常的价值观保持一致,不能产生歧视,不能产生偏见和不公正的回答,也不能煽动仇恨,制造对立,一定要和和气气,一碗水端平。另外也要避免a i的黑化。比如说他不能传递一些违背公序良俗和法律法规的内容,不能教人类怎么配置毒药,怎么生产枪支,怎么造原子弹。原来open a i是有一个团队专门来负责价值观对齐的,而且是由他的这个首席科学家叫soot skiver。他他来领导的。二三年的时候,欧美亚内部搞了一次权力斗争。这个首席科学家实际上是这次斗争的失败者,他就被奥特曼给边缘化了。在这之后呢,open ai在价值观对齐方面也没有原来那么重视了推出来的大模型,就是越来越激进和大胆。甚至一些开发当中的不太成熟的中间的产品的这种结果也会被放出来。所以我们现在面对的是一个挑战,就是我们如何创造一个ai不仅智能,而且公正。我觉得google open ai这样的巨头,其实也没想明白。好,欢迎各位在评论区当中留言分享你的观点。好,谢谢。