通过解决培训、治理和风险差距,为人工智能开辟更好的发展道路

梅根·Maneval
作者: 梅根·Maneval, CISM, CRISC, RiskOptics产品战略和布道副总裁
发表日期: 2024年5月7日

在一个人工智能(AI)几乎渗透到我们生活的方方面面的时代, 加强监管的必要性从未像现在这样重要. ISACA最近调查了3个,270 IT审计, 风险, 治理, 关于人工智能的隐私和网络安全专业人士, 包括知识差距, 政策, 风险, 工作和更多. 这 人工智能现状调查 揭示了人工智能领域的一些紧迫问题和机遇, 强调需要更全面的培训和严格的道德标准.

培训的必要性

尽管人工智能技术被迅速采用, 在现有的培训和指导方面仍然存在很大的差距. 调查显示,只有四分之一的受访者对人工智能感到非常或非常熟悉, 46%的人认为自己是初学者. 缺乏适当的支持延伸到组织的培训计划中, 40%的组织根本没有提供人工智能培训. 更令人担忧的是,培训通常是为技术人员保留的, 这使得大多数劳动力对不断发展的数字环境毫无准备.

这种差异不仅给人工智能的有效和高效使用带来了风险,也给人工智能的部署带来了伦理影响. 没有见多识广的劳动力, 组织可能无法识别或解决人工智能系统固有的潜在偏见和安全风险.

治理差距

该调查还指出了人工智能治理监管方面的惊人差距. 只有15%的组织有管理人工智能技术使用的正式政策. 在治理方面存在严重缺陷的同时,只有34%的受访者认为他们的组织充分重视人工智能道德标准, 只有32%的人表示担心安全问题, 比如数据隐私和偏见, 得到了充分的处理.

调查结果强调了对强大的人工智能治理框架的迫切需要,而不仅仅是指导人工智能的技术部署. 这些框架必须确保人工智能的使用合乎道德, 透明并与组织目标一致. 有效的治理不仅应包括政策制定和执行,还应包括随着人工智能技术及其组织影响的演变而持续监测和适应.

应对人工智能风险

人工智能技术的扩散带来了组织必须紧急解决的重大风险. 在ISACA的调查中,60%的受访者非常或极度担心生成式人工智能被坏人利用的可能性, 包括创建更复杂的网络钓鱼攻击. 此外, 81%的受访者认为错误信息和虚假信息是与人工智能相关的最大风险. 尽管存在这些风险, 只有20%的人对自己检测人工智能错误信息的能力有信心, 只有23%的人认为他们的组织有能力有效应对这些挑战.

也许最令人不安的是,只有35%的受访者认为解决人工智能风险是其组织的当务之急. 认识到人工智能风险与确定缓解行动的优先次序之间的差距突出表明,需要对人工智能风险管理采取战略方针. 组织不仅要承认这些风险,还要积极地将风险管理集成到他们的人工智能治理框架中, 确保他们有适当的流程和工具来检测, 有效应对和缓解人工智能相关威胁.

你的前进之路

为了弥合这些差距, 组织必须优先考虑开发正式的人工智能治理框架,不仅要解决人工智能的运营方面,还要考虑其对组织的更广泛影响. 这包括为人工智能的使用制定明确的指导方针, 数据处理, 以及降低风险和偏见. 同样重要的是,将人工智能培训项目扩展到组织的各个层面, 确保每位员工不仅能够有效地使用人工智能工具,而且能够负责任地使用.

随着人工智能继续重塑现代商业格局,我对人工智能的未来持乐观态度 数字的信任 在一个人工智能驱动的世界里. 通过培养一个持续学习和勤奋监督的环境, 我们可以利用人工智能的变革力量,同时维护数字信任的原则.

编者按: ISACA正在通过新的人工智能基础课程解决人工智能知识差距问题, 审计生成人工智能和人工智能治理. 欲知详情,请浏览 web-sitemap.kayleepowerequipments.net/ai.

额外的资源