相关文章:AI伦理与安全
几年前,科技界发生过一件颇为尴尬的事。一家巨头公司信心满满地推出了一款AI招聘工具,它能自动筛选简历,为岗位推荐最合适的候选人。然而人们很快发现,这个被寄予厚望的AI,似乎是个不折不扣的“直男癌”——它系统性地对女性求职者打低分,即便她们的资历与男性相当。
无独有偶,当你在一些早期的AI绘画工具中输入“医生”、“CEO”时,屏幕上出现的几乎清一色是白人男性的面孔;而输入“护士”、“保姆”,则大概率是女性。
AI真的“学会”了性别歧视和种族歧视吗?
要回答这个问题,我们得先理解AI的本质。它不是一个拥有自我意识和价值观的“人”,而更像一面忠实得有些天真的“镜子”。
这面镜子本身没有思想,没有立场,它唯一的使命,就是诚实地、不加分辨地映照出我们投喂给它的那个世界的样子——包括那个世界中所有的光辉,与不堪。
镜子里的“污点”:偏见从何而来?
AI偏见的根源,不在于算法本身“心怀恶意”,而在于我们递给它的那面“镜子