麻省理工学院的研究人员表示,员所使用生成人工智能工具(这种做法被称为“自带人工智能”或BYOAI)可能会给企业带来风险。
“别误会,我这里说的可不是理论,”麻省理工学院信息系统研究中心的研究科学家尼克·范德·梅伦( Nick van der Meulen) 在 《麻省理工学院斯隆管理评论》网络研讨会上表示。“这种情况已经发生了一段时间了。”
对于那些禁止使用ChatGPT等公开AI 聊天机器人的公司来说,BYOAI 的诱惑可能尤其强烈。出于监管和安全方面的考虑,三星、Verizon、摩根大通和其他银行已经禁止或限制使用外部 AI 聊天机器人。
麻省理工学院表示,随着人工智能模型变得越来越强大并且可供任何人免费使用,这个问题在商业领袖中变得越来越 紧迫。
范德梅伦 (van der Meulen) 和同事Barbara Wixom的研究表明,去年大型 法国电报数据 组织中约有 16% 的员工已经在使用人工智能工具,预计到 2027 年这一数字将上升到 72%。这包括经批准和未经批准的人工智能使用。
他们警告说,员工在没有指导的情况下使用这些工具会带来风险。
“当敏感数据被输入到你无法控制的平台时会发生什么?当商业决策是基于没有人完全理解的输出时会发生什么?”范德梅伦问道。
研究人员表示,生成式人工智能的实现有两种类型:
ChatGPT 或Microsoft Copilot等GenAI工具可用于提升员工个人的生产力和效率。这些工具虽然免费提供,但将其应用转化为投资回报却较为困难。
GenAI解决方案是在公司范围内跨流程和业务部门部署 AI,为企业带来价值。