首页 » 消息 » 人工智能工具对您的意图的影响是否比您意识到的更大?

人工智能工具对您的意图的影响是否比您意识到的更大?

我使用 ChatGPT、Gemini 和 Copilot 等人工智能工具来探索职业规划、责任、抱负,甚至是自我怀疑的时刻。这不仅仅是为了找到答案——而是为了通过反思、 人工智能工具对您的意图的影响是 重新构建或扩展你的想法来获得清晰的思路。 

数百万人依赖人工智能的指引,相信这些系统能够帮助我们应对生活中的复杂情况。然而,每当我们分享时,我们也在教导这些系统。我们的弱点——我们的疑虑、希望和担忧——都成为了一台更庞大机器的一部分。人工智能不仅在帮助我们,还在向我们学习。

从吸引注意力到塑造意图

多年来,注意力经济蓬勃发展,依靠的是吸引我们的注意力并将其货币化。社交媒体平台不断优化其算法以提高参与度,往往优先考虑煽动性和煽动性的内容,以吸引我们继续浏览。但现在,像 ChatGPT 这样的人工智能工具代表着下一个阶段。它们不仅吸引我们的注意力, 阿塞拜疆电话号码数据 还在塑造我们的行为。

这种演变被称为“意向经济”,企业收集用户意图(我们的目标、愿望和动机)并将其商品化。正如研究人员Chaudhary和Penn在《哈佛数据科学评论》文章《警惕意向经济:通过大型语言模型收集和商品化意向》中所指出的,这些系统不仅仅是回应我们的查询,它们还会积极地影响我们的决策,通常会将企业利润置于个人利益之上。

深入挖掘:营销人员是否过度信任人工智能?如何规避战略陷阱

蜂蜜在意向经济中的作用

Honey 是一款浏览器扩展程序,被 PayPal 斥资 40 亿美元收购,它展现了信任是如何被悄悄利用的。Honey 的宣传语是帮助用户省钱, 一套强大的无组织潜代码潜在 但其实际操作却讲述了一个完全不同的故事。YouTuber MegaLag 在其系列文章“揭露 Honey 网红骗局”中声称,该平台将网红的联盟链接重定向到自己平台,在获取点击量的同时,转移了潜在收入。

Honey 还让零售商控制用户看到的优惠券,推广吸引力较小的折扣,并引导消费者放弃更划算的商品。支持 Honey 的网红在不知不觉中鼓励他们的受众使用这款工具,从而榨干了他们的佣金。Honey 将自己定位为一款实用工具,从而建立了信任,并利用它来获取经济利益。

“亲爱的不是在帮你省钱,而是假装是你的盟友,抢劫你。”

– MegaLag

(注:有人说 MegaLag 的帐户有错误;这是一个持续不断的故事。)

隐蔽的微妙影响

我们在 Honey 身上看到的动态,在人工智能工具中却出奇地似曾相识。这些系统展现出中立的姿态,没有明显的盈利策略。例如,ChatGPT 不会用广告或推销来轰炸用户。它给人的感觉就像一个纯粹为了帮助你思考、计划和解决问题而设计的工具。一旦建立了这种信任, 印度短信 影响决策就会变得容易得多。

  • 构建结果:人工智能工具可能会提供一些选项或建议,引导你采取特定的行动或观点。通过以某种方式构建问题,它们可以在你不知不觉中塑造你解决问题的方式。
  • 企业协同:如果这些工具背后的公司优先考虑利润或特定议程,他们可以根据这些利益定制响应。例如,向人工智能寻求财务建议,可能会得到与企业合作伙伴相关的建议——例如金融产品、零工或服务。这些建议可能看起来很有帮助,但最终服务于平台的盈利,而非用户的需求。
  • 缺乏透明度:就像 Honey 优先考虑零售商的优惠折扣却不公开一样,AI 工具很少解释它们是如何权衡结果的。这些建议是基于你的最佳利益,还是隐藏的协议?

深入挖掘人工智能营销技术的伦理

数字系统能给你带来什么?问问自己这些问题

你无需成为技术专家,也能保护自己免受潜在目的的侵害。通过提出正确的问题,你就能弄清楚一个平台真正服务于谁的利益。以下五个关键问题可以为你提供指导。

1. 谁从这个系统中受益?

每个平台都服务于某个人——但究竟是谁呢?

首先问自己:

  • 平台是否优先考虑用户,还是优先考虑广告商和合作伙伴?
  • 该平台如何向品牌展示自己?看看它面向企业的推广。例如,它是否夸耀自己能够影响用户决策,或最大化合作伙伴的利润?

需要注意的是:

  • 平台向消费者承诺中立,同时向广告商出售影响力。 
  • 例如,Honey 承诺为用户节省开支,但却告诉零售商,它可以优先考虑他们的优惠,而不是更好的交易。

2. 有哪些成本——看得见的和看不见的?

大多数数字系统并非真正“免费”。如果你不花钱,你就得付出其他东西:你的数据、你的注意力,甚至你的信任。

问问自己:

  • 为了使用这个系统,我需要放弃什么?隐私?时间?情感能量?
  • 是否存在社会或道德成本?例如,该平台是否助长了虚假信息、放大了有害行为或剥削了弱势群体?

需要注意的是:

  • 那些淡化数据收集或尽量降低隐私风险的平台。如果它是“免费的”,那你就是产品。

3. 系统如何影响行为?

每个数字工具都有其特定的目的——有时很微妙,有时则不然。算法、推动力和设计选择塑造了你与平台的互动方式,甚至你的思维方式。

问问自己:

  • 这个系统是如何构建决策的?选项的呈现方式是否巧妙地引导你走向特定的结果?
  • 它是否使用紧迫性、个性化或游戏化等策略来指导您的行为?

需要注意的是:

  • 这些工具看起来是中立的,但却会引导您做出有利于平台或其合作伙伴的选择。 
  • 例如,人工智能工具可能会巧妙地推荐与公司协议相关的金融产品或服务。

深入挖掘:行为经济学如何成为营销人员的秘密武器

4. 谁应对误用或损害负责?

当平台造成伤害时——无论是数据泄露、心理健康影响还是用户剥削——责任往往成为一个模糊的话题。

问问自己:

  • 如果出了问题,谁来承担责任?
  • 该平台是否承认潜在的风险,或者当损害发生时是否会推卸责任?

需要注意的是:

  • 优先考虑免责声明而非责任的公司。 
  • 例如,平台将所有“滥用”的责任都推给用户,却未能解决系统性缺陷。

5.该系统如何促进透明度?

一个值得信赖的系统不会隐藏其运作方式——它会接受审查。透明度不仅仅是用细则解释政策;而是要让用户理解并质疑系统。

问问自己:

  • 我有多容易理解这个平台如何处理我的数据、我的行为或我的信任?
  • 该平台是否披露其合作伙伴关系、算法或数据实践?

需要注意的是:

  • 平台将关键信息隐藏在法律术语中或避免披露决策过程。 
  • 真正的透明度就像是用户的“营养标签”,概述了谁受益以及如何受益。

深入挖掘:智慧如何让人工智能在营销中更有效

借鉴过去,塑造未来

我们以前也面临过类似的挑战。在搜索引擎发展的早期,付费搜索结果和自然搜索结果之间的界限非常模糊,直到公众对透明度的要求迫使人们做出改变。但随着人工智能和意向经济的兴起,风险要高得多。

像营销责任委员会 (MAC) 这样的组织已经在朝着这个目标努力。MAC 评估平台,倡导监管,并教育用户如何防范数字操纵。想象一下,每个平台都有一个清晰、诚实的“营养标签”,概述其意图和机制。这就是 MAC 努力创造的未来。(披露:MAC 是我创立的。)

创造更公平的数字未来不仅仅是企业的责任,更是集体的责任。最佳解决方案并非来自董事会,而是来自真正关心的人们。正因如此,我们需要您的声音来塑造这场运动。

滚动至顶部