有偏见或不具代表性的数据可能会导致反映社会偏见的算法。
因此,如果用于训练营销算法的数据存在偏差,人工智能可能会无意中偏向某些人群,而排除或歪曲其他人群。这可能会影响广告定位、内容推荐,甚至产品促销,而这些影响往往反映出现有的不平等现象。
例如,它可以体现在电子商务网站的个性化偏见中。人工智能推荐引擎可能会根据人口统计数据提供不同的定价或产品可见性,例如为富裕地区的用户提供更高的价格,或将某些群体排除在奢侈品之外。
图片库平台也可能成为算法偏见的受害者
这种偏见的根源在于人工智能是通过历史数据进行训练的。图片库平台使用的人工智能算法可能会将担任领导角色的 我们也在努力实现直布罗陀政府想要的东西 女性图像归类为“办公室职员”或“支持人员”,而将男性图像标记为“首席执行官”或“执行领导”,这反映了过时的性别规范。作为营销人员,注意标记和分类是值得的。
为纪念国际消除对妇女暴力日,丝芙兰意大利公司发起了一场有趣的活动,强调人工智能的偏见,该活动探讨了指责受害者的本质 。该活动要求 ChatGPT 根据其在网上找到的观点,从受害者的角度撰写三篇有关暴力的故事。
结果是受害者自责
并为肇事者寻找借口。这是现实生 最近的手机号码数据 活中发生的事情的一个例子,表明受害者指责在我们的文化中根深蒂固。该活动表明,以历史数据为依据进行训练的人工智能可能会造成危害,因为它会使系统性问题长期存在。
透明度
营销中与人工智能相关的另一个问题是人工智能使用时的透明度或披露性。
我们可以看到的一个事件是巴黎戈布兰艺术学校 (Gobelins Paris) 的案例,这是一所法国著名的艺术学校,以其动画和视觉艺术课程而闻名。该校在宣传材料中使用人工智能生成的视觉效果后遭到强烈反对。该校最初并未披露这些图像是由人工智能生成的,这导致学生、校友和艺术家的批评,他们认为,一所致力于人类创造力的机构不应该依赖人工智能进行营销。
为了缓解这种反响,Gobelins 发表了一份公开声明,澄清说,人工智能生成的图像是出版和项目管理专业学生项目的一部分,而不是学校的核心动画或设计课程。然而,如果从一开始就全面披露,这种反应是可以避免的。