北京 – 2024年2月26日 –Veritas Technologies近日发布最新调研结果,在工作中使用人工智能会造成员工之间的隔阂,并增加敏感信息暴露的风险。85%的中国受访者承认在工作中使用ChatGPT等人工智能生成工具,包括输入客户详细信息、员工信息和公司财务信息等风险行为。然而,将近五分之一(18%)的中国受访者不仅不使用这些工具,甚至认为使用这些工具来协助工作的行为是错误的,应该被减薪。无论受访者对使用生成式人工智能的态度如何,90%的中国受访者表示,针对人工智能的使用指导和政策非常重要,然而,目前只有34%的中国企业向员工提供了强制性的使用指导。
Veritas公司大中华区技术销售与服务总监吴振岗表示:“如果企业没有提供是否可以使用或应该如何使用人工智能的相关要求和指导,一些员工使用人工智能的方式可能会给企业带来风险,与此同时另一部分员工则对使用人工智能存在顾虑,并对擅自使用人工智能的同事感到不满。这两种情况都是企业不愿看到的。企业不但会面临违反法规的问题,还会错失提高团队效率的机会。然而,这些问题都可以通过有效的生成式人工智能指导方针和政策来解决,即什么是可以做的,什么是不可以做的。”
缺少人工智能使用指导及政策会导致企业面临风险
在中国受访者中有超过三分之一(37%)的员工承认曾将客户详情、员工信息和公司财务等潜在敏感信息输入进生成式人工智能工具当中。其中,有一半(50%)的中国受访者并没有意识到这样做可能会公开泄露敏感信息,更有58%的中国受访者表示并不了解这样是否会导致其公司违反数据隐私合规法规。
缺少人工智能的指导及政策导致企业错失良机
在中国受访者中有69%的员工表示他们每周至少会使用一次生成式人工智能,其中有66%的员工认为使用人工智能对提高个人和团队生产力有帮助,这一数据高于全球平均水平(40%)。不过,也有15%的中国受访者表示他们完全不使用人工智能,其原因可能是有76%的中国受访者受到雇主明确指示哪些工作可以使用人工智能,哪些不可以。这至少会带来两点负面影响。首先,这往往会导致员工内部争议或消极怠工,因为有60%的中国受访者表示,在工作中使用人工智能对那些不使用的员工有不公平的优势。第二,许多员工并没能通过合理使用生成式人工智能提高其工作效率。例如,正在使用人工智能的中国员工表示,人工智能能够帮助他们更快地获取信息(58%)、提高工作效率(66%)、代替完成琐碎的任务(48%)、提供创意(41%)以及解决在工作中遇到的难题(32%)。
员工希望企业制定人工智能指导方针和政策
在受访者中,近九成(89%)的中国员工希望他们的雇主提供人工智能的使用指导、政策或培训。主要是让员工知道如何以正确的方式使用工具(68%)、降低风险(51%)和在工作场所创造公平竞争的环境(31%)。
吴振岗表示:“随着人工智能技术的日新月异,企业应该深思熟虑地制定并清晰传达相应的使用指导和规则,同时运用正确的数据合规治理工具,以监测管理落地实施过程并持续执行。这样才能将人工智能利益最大化,不仅有效提升团队工作效率,更能够让企业在规避合规风险的同时保障业务发展。”
关于调研
该研究由Veritas Technologies 委托3Gem于2023年12月1日至13日进行。其数据来源于澳大利亚(1000名)、巴西(1000名)、中国(1000名)、法国(1000名)、德国(1000名),日本(1000名)、新加坡(500名)、韩国(500名)、阿拉伯联合酋长国(500名)、英国(2000名)和美国(2000名)共11500名办公室员工。
关于 Veritas
Veritas Technologies是安全多云数据管理领域的领导者。超过八万家企业级客户,包括91%的全球财富100强企业,均依靠Veritas确保其数据的保护、可恢复性和合规性。Veritas在规模化的可靠性方面享有盛誉,可为企业提供抵御勒索软件等网络攻击威胁所需的韧性。Veritas通过统一的平台,支持超过800种数据源,100多种操作系统以及1400多种存储设备。在云级技术的支持下,Veritas现正在实践其数据自治战略,在降低运营成本的同时,实现更大价值。
Veritas中国官方网站 https://www.veritas.com/zh/cn/
Veritas官方微信平台:VERITAS_CHINA(VERITAS中文社区)