编译/夏洛特
人工智慧(AI)及其相关工具正在革新整个产业,提高了许多领域的生产力和效能,然而AI也是一把双刃剑,虽然其带来的好处无庸置疑,但在某些情况下,人与人之间的互动和情感交流是无法替代的,不适合使用AI。谨慎评估如何及何时应用AI解决方案,以在最大化其好处的同时,将潜在风险降到最低,已经成为一重要课题。
情感驱动的情境需要人性化处理
尽管某些客户互动可以透过聊天机器人和生成式AI来处理,如快速回应常见问题或定期发送个人化电子邮件,但当客户问题涉及同情和理解时,可能就需要由真人代表处理,特别是当需要做出判断或干预时,让不满的客户与真人代表对话更为合适,而敏感的谈判通常也更适合面对面进行。
更多新闻:SearchGPT碰壁《纽约时报》网站封锁OpenAI
AI预测仍需人类监管
虽然AI可以透过数据和演算法来预测趋势,但结果并不总是准确的,根据一项消费者调查,64%的客户表示,他们收到过不符合其偏好或购物行为的AI推荐产品,在快速变化或小众市场中,结合AI和人类监管可能是一种更有效的方法。
存在歧视风险的领域
机器学习依赖工程师编写程式,使电脑能够从经验中学习,然而,由於AI使用的是提供给它的资讯,其中仍可能包含带有偏见的数据,并在无意中歧视少数群体,因此为避免这种情况,就需要真人参与,才能有效实施、监控AI解决方案,并确保透明度和责任心,此外,生成的多语言内容也必须经过人类审核,以确保其文化适当性。
高风险过程中的自动化谨慎行事
AI可以提供一些任务的指导,如烹饪或修理脚踏车,但在一些复杂情况下,AI可能并非最终解决方案,如仅依赖AI操作的核电厂可能存在巨大风险,而若是在招聘过程中使用AI也须谨慎,并让人类进行进一步的招聘决策,才不会错过潜在的合适候选人,并需要进行真实对话,才能了解申请人,并确定他们的价值观是否与公司的价值观一致。
无法获得允许时应避免使用AI
企业在使用客户数据时,需要评估其AI计画是否符合现行法规和行业标准,根据调查,90% 的消费者认为,零售商应该公开披露如何使用客户数据来应用AI工具,数据隐私法规,如《一般资料保护规则》(GDPR),就对客户数据的收集、处理和储存有严格要求。
参考资料:forbes