
Image by Pramod Tiwari, from Unsplash
AI在职场中的使用激增,隐私风险也随之增长
一项新的国际研究揭示了职场中广泛使用的AI,近半数员工滥用像ChatGPT这样的工具,经常冒着数据暴露的风险。
时间紧迫?以下是要点:
- 全球58%的员工经常在工作中使用人工智能。
- 有48%的人将敏感的公司数据上传到了公共的人工智能工具中。
- 66%的人依赖人工智能的输出结果,而不检查其准确性
根据The Conversation的报道,一项新研究揭示,尽管大多数员工接受并使用像ChatGPT这样的AI工具来提高工作效率,但也有许多人在未经雇主知情的情况下,以冒险的方式使用它们。
墨尔本商学院和毕马威支持的研究从47个国家的32,000名工作者中收集了数据。调查显示,58%的员工在工作活动中使用AI工具,大多数工作者报告说效率和创新以及工作质量有所提高。
然而,47%的人承认滥用AI,包括将敏感数据上传到公共工具或绕过公司规则。据The Conversation报道,更多的人(63%)目睹了同事们也在做同样的事。
更令人担忧的是“暗影人工智能”已经广泛存在,当员工秘密使用人工智能工具或将其输出结果冒充为自己的成果。有61%的人表示他们在使用人工智能时不会公开,而55%的人曾将人工智能生成的内容冒充为个人工作。
考虑到员工在人工智能主导的劳动力市场中面临的越来越大的压力,这种保密可能并不令人惊讶。在Shopify等公司,不仅鼓励采用人工智能,而且是强制性的。CEO Tobi Lütke最近告诉员工,在申请额外的员工或资源之前,他们必须证明人工智能无法完成这项工作。
他强调,有效利用AI现在已经成为基本期望,而绩效评估将评估员工如何将AI工具融入他们的工作流程。他指出,积极倾向于自动化的员工完成的工作量是“100倍”。
虽然这种动力提高了生产力,但也激发了潜在的竞争。承认依赖生成性AI可能被视为使自己的角色可被替代。
这种担忧在全球范围内得到了回应:最近的一份联合国贸易和发展会议(UNCTAD)报告警告称,AI可能会影响全球多达40%的工作岗位。报告指出,AI有能力执行传统上由人类完成的认知任务,从而引起了关于工作岗位流失和经济不平等的恐慌。
在这样的环境下,许多工人可能会选择隐瞒他们使用AI的事实,以保持对控制权、创造力或工作安全感的掌握,即使这意味着违反透明度规范或工作场所政策。
《对话》报道说,自满是被审查研究中的另一个问题,其中66%的受访者表示他们依赖AI的输出而没有对其进行评估,这导致错误,甚至在某些情况下,如侵犯隐私或造成经济损失的严重后果。
研究人员强调需要紧急改革,因为他们注意到只有47%的工作人员接受过任何AI培训。作者们呼吁更强的治理,强制性培训,以及支持透明度的工作文化。
然而,预计到2030年,39%的现有技能需要再培训,一些员工可能会保持沉默。随着自动化改变工作,员工可能会隐藏AI的使用,以避免显得自己可以被替换。
留下评论
取消