我使用 ChatGPT、Gemini 和 Copilot 等人工智能工具来探索职业规划、责任、抱负,甚至是自我怀疑的时刻。这不仅仅是为了找到答案——而是为了通过反思、 人工智能工具对您的意图的影响是 重新构建或扩展你的想法来获得清晰的思路。
数百万人依赖人工智能的指引,相信这些系统能够帮助我们应对生活中的复杂情况。然而,每当我们分享时,我们也在教导这些系统。我们的弱点——我们的疑虑、希望和担忧——都成为了一台更庞大机器的一部分。人工智能不仅在帮助我们,还在向我们学习。
从吸引注意力到塑造意图
多年来,注意力经济蓬勃发展,依靠的是吸引我们的注意力并将其货币化。社交媒体平台不断优化其算法以提高参与度,往往优先考虑煽动性和煽动性的内容,以吸引我们继续浏览。但现在,像 ChatGPT 这样的人工智能工具代表着下一个阶段。它们不仅吸引我们的注意力, 阿塞拜疆电话号码数据 还在塑造我们的行为。
这种演变被称为“意向经济”,企业收集用户意图(我们的目标、愿望和动机)并将其商品化。正如研究人员Chaudhary和Penn在《哈佛数据科学评论》文章《警惕意向经济:通过大型语言模型收集和商品化意向》中所指出的,这些系统不仅仅是回应我们的查询,它们还会积极地影响我们的决策,通常会将企业利润置于个人利益之上。
深入挖掘:营销人员是否过度信任人工智能?如何规避战略陷阱
蜂蜜在意向经济中的作用
Honey 是一款浏览器扩展程序,被 PayPal 斥资 40 亿美元收购,它展现了信任是如何被悄悄利用的。Honey 的宣传语是帮助用户省钱, 一套强大的无组织潜代码潜在 但其实际操作却讲述了一个完全不同的故事。YouTuber MegaLag 在其系列文章“揭露 Honey 网红骗局”中声称,该平台将网红的联盟链接重定向到自己平台,在获取点击量的同时,转移了潜在收入。
Honey 还让零售商控制用户看到的优惠券,推广吸引力较小的折扣,并引导消费者放弃更划算的商品。支持 Honey 的网红在不知不觉中鼓励他们的受众使用这款工具,从而榨干了他们的佣金。Honey 将自己定位为一款实用工具,从而建立了信任,并利用它来获取经济利益。
“亲爱的不是在帮你省钱,而是假装是你的盟友,抢劫你。”
– MegaLag
(注:有人说 MegaLag 的帐户有错误;这是一个持续不断的故事。)
隐蔽的微妙影响
我们在 Honey 身上看到的动态,在人工智能工具中却出奇地似曾相识。这些系统展现出中立的姿态,没有明显的盈利策略。例如,ChatGPT 不会用广告或推销来轰炸用户。它给人的感觉就像一个纯粹为了帮助你思考、计划和解决问题而设计的工具。一旦建立了这种信任, 印度短信 影响决策就会变得容易得多。
- 构建结果:人工智能工具可能会提供一些选项或建议,引导你采取特定的行动或观点。通过以某种方式构建问题,它们可以在你不知不觉中塑造你解决问题的方式。
- 企业协同:如果这些工具背后的公司优先考虑利润或特定议程,他们可以根据这些利益定制响应。例如,向人工智能寻求财务建议,可能会得到与企业合作伙伴相关的建议——例如金融产品、零工或服务。这些建议可能看起来很有帮助,但最终服务于平台的盈利,而非用户的需求。
- 缺乏透明度:就像 Honey 优先考虑零售商的优惠折扣却不公开一样,AI 工具很少解释它们是如何权衡结果的。这些建议是基于你的最佳利益,还是隐藏的协议?
深入挖掘:人工智能营销技术的伦理
数字系统能给你带来什么?问问自己这些问题
你无需成为技术专家,也能保护自己免受潜在目的的侵害。通过提出正确的问题,你就能弄清楚一个平台真正服务于谁的利益。以下五个关键问题可以为你提供指导。
1. 谁从这个系统中受益?
每个平台都服务于某个人——但究竟是谁呢?
首先问自己:
- 平台是否优先考虑用户,还是优先考虑广告商和合作伙伴?
- 该平台如何向品牌展示自己?看看它面向企业的推广。例如,它是否夸耀自己能够影响用户决策,或最大化合作伙伴的利润?
需要注意的是:
- 平台向消费者承诺中立,同时向广告商出售影响力。
- 例如,Honey 承诺为用户节省开支,但却告诉零售商,它可以优先考虑他们的优惠,而不是更好的交易。
2. 有哪些成本——看得见的和看不见的?
大多数数字系统并非真正“免费”。如果你不花钱,你就得付出其他东西:你的数据、你的注意力,甚至你的信任。
问问自己:
- 为了使用这个系统,我需要放弃什么?隐私?时间?情感能量?
- 是否存在社会或道德成本?例如,该平台是否助长了虚假信息、放大了有害行为或剥削了弱势群体?
需要注意的是:
- 那些淡化数据收集或尽量降低隐私风险的平台。如果它是“免费的”,那你就是产品。
3. 系统如何影响行为?
每个数字工具都有其特定的目的——有时很微妙,有时则不然。算法、推动力和设计选择塑造了你与平台的互动方式,甚至你的思维方式。
问问自己:
- 这个系统是如何构建决策的?选项的呈现方式是否巧妙地引导你走向特定的结果?
- 它是否使用紧迫性、个性化或游戏化等策略来指导您的行为?
需要注意的是:
- 这些工具看起来是中立的,但却会引导您做出有利于平台或其合作伙伴的选择。
- 例如,人工智能工具可能会巧妙地推荐与公司协议相关的金融产品或服务。
深入挖掘:行为经济学如何成为营销人员的秘密武器
4. 谁应对误用或损害负责?
当平台造成伤害时——无论是数据泄露、心理健康影响还是用户剥削——责任往往成为一个模糊的话题。
问问自己:
- 如果出了问题,谁来承担责任?
- 该平台是否承认潜在的风险,或者当损害发生时是否会推卸责任?
需要注意的是:
- 优先考虑免责声明而非责任的公司。
- 例如,平台将所有“滥用”的责任都推给用户,却未能解决系统性缺陷。
5.该系统如何促进透明度?
一个值得信赖的系统不会隐藏其运作方式——它会接受审查。透明度不仅仅是用细则解释政策;而是要让用户理解并质疑系统。
问问自己:
- 我有多容易理解这个平台如何处理我的数据、我的行为或我的信任?
- 该平台是否披露其合作伙伴关系、算法或数据实践?
需要注意的是:
- 平台将关键信息隐藏在法律术语中或避免披露决策过程。
- 真正的透明度就像是用户的“营养标签”,概述了谁受益以及如何受益。
深入挖掘:智慧如何让人工智能在营销中更有效
借鉴过去,塑造未来
我们以前也面临过类似的挑战。在搜索引擎发展的早期,付费搜索结果和自然搜索结果之间的界限非常模糊,直到公众对透明度的要求迫使人们做出改变。但随着人工智能和意向经济的兴起,风险要高得多。
像营销责任委员会 (MAC) 这样的组织已经在朝着这个目标努力。MAC 评估平台,倡导监管,并教育用户如何防范数字操纵。想象一下,每个平台都有一个清晰、诚实的“营养标签”,概述其意图和机制。这就是 MAC 努力创造的未来。(披露:MAC 是我创立的。)
创造更公平的数字未来不仅仅是企业的责任,更是集体的责任。最佳解决方案并非来自董事会,而是来自真正关心的人们。正因如此,我们需要您的声音来塑造这场运动。