察觉到某些事情只是一种刻板

TG Data Set: A collection for training AI models.
Post Reply
sumonasumona
Posts: 7
Joined: Sat Dec 21, 2024 7:22 am

察觉到某些事情只是一种刻板

Post by sumonasumona »

例如,当你输入“警察”时,引擎会建议输入“警官”。 尽管在之前的案例中,我们谈论的是社交媒体和更多的人为决策。当谈到 SERP 时,我们还有其他因素,例如人工智能和算法。 令人悲哀的是,数据和技术也可能带有种族歧视。这听起来可能很矛盾,因为两者都应该是客观而精确的科学。 然而,我们要记住,数据和技术都是人类构建的,即使在构建人工智能时,它们也容易受到自身偏见的影响。 正如《搜索引擎杂志》的作者卡罗琳·莱登所说:“算法和机器学习的效果完全取决于我们向这些模型提供的信息”。 幸运的是,作为营销人员,我们有能力改变自己的想法,发现我们的偏见并采取行动。


如果我们发现自己的偏见,我们就能印象,并不代表现实。 如何减少偏见 肯尼亚 WhatsApp 号码列表 100K 套餐 对抗算法并不容易,尽管谷歌已经尝试减少 SERP 中的偏见,但距离我们拥有无偏见的技术还有很长的路要走。 但我们可以做一两件事来改善它——毕竟,我们是为这些算法提供内容的人。请查看以下主要提示: 首先,从自己开始 让我们明确一点:有偏见并不会让我们成为坏人,但我们应该更加致力于认识到我们的偏见。下次你发现自己对某人有刻板印象时,想想“我为什么会这样想”,或者“这是真的吗?” 请记住,没有人可以被归结为一个刻板的形象。

Image

每个人都有细微的差别、个性特征和不同的背景。 在进行搜索(或浏览信息)时,请始终尝试从不同的来源收集信息。尝试跳出过滤泡沫,确保您收到的内容中没有种族主义或性别歧视思想。 让你的内容具有包容性 请记住,算法和机器学习是根据我们提供给它的信息来起作用的。遗憾的是,我不是 Google 工程师,所以我无法直接致力于改进 SERP 算法。 然而,作为内容创造者,我们可以做很多事情来让互联网成为一个更具包容性的地方。一个好的起点可能是我们自己的语言。包容性的交流可能会减少性别假设和排斥。 另外,分析一下你自己的图像是如何表现多样性的。
Post Reply