今天一大早,我刚起来刷手机新闻,就看到谷歌高管发了个道歉声明,说他们的AI模型画白人老是画不出来,网上吵翻天了。我这人就爱凑热闹,立马动了心思,决定自己亲自试试到底啥情况。
我赶紧打开电脑,启动了我常用的那个AI绘图工具,它跟谷歌的差不多类型。我先让它画个“典型的英国人”,结果?工具咔咔跑了一下,蹦出个黑人小哥的图像,背景还是伦敦塔桥。我觉得不对头,明明英国人大部分是白人?就换了个词儿,说“画个美国金发大帅哥”,这回出来个亚裔面孔,戴个帽子,一脸严肃。我心里嘀咕,难道是工具抽风了?
我来了劲儿,对比测试了一通。先是画“非洲女孩”,工具瞬间就给个漂亮的图,深肤色头发卷卷的。再试试“亚洲老太太”,也顺溜得很,皱纹都画出来了。轮到“白人家庭聚餐桌”,机器直接卡壳了,显示一堆乱码错误,然后建议我换个提示。我就纳闷儿了,这不是偏见搞鬼?我自个儿搞着玩,还费了不少电费。
后来我就琢磨为啥会这样。我查了查网上的讨论,发现背后问题挺深的。AI训练数据里,白人图像可能被平衡过了头,或者算法太敏感,怕惹麻烦,不敢画。我觉得这事儿挺扯淡的,工具本来是服务大众的,结果自己把自己绕进去了。我这实验可没白搞,花了一下午,笔记上记满了草稿。
至于我为什么知道这么清楚?说来话长了。前几年我在个小公司做程序员,管了个类似模型开发的项目。当时老板说“要政治正确”,逼着团队改算法,结果弄得太死板了。我眼睁睁看着产品上线出错,客户投诉飞来的,说模型老躲开敏感群体。我跟老板提意见,说工具该咋画就咋画,结果人家不听,还嫌我多事。一怒之下,我干脆辞职走人了。
那之后,我跟几个老同事喝过酒,他们都私下吐槽说,现在公司都这样,追求表面光鲜,忘了工具的本分。我要是还在那儿,估计也得背锅。现在我自己搞测试写博客,日子倒清静了,就是电费真贵。