- Fed放鹰,黄金失守2360,分析师:继续看涨?
- 比特币今年将飙升至10万美元!渣打银行押注美国大选行情!
- 2025年初日元汇率持续下跌!日本央行将在1月加息?
- 日元汇率将升值10%?摩根士丹利:2026年美元/日元将跌至140
- 美元/日元触及“红线”160.0!日本财长汇率干预警告或难奏效?
- 人民币汇率强劲升值!高盛:国际化加速,2026年人民币兑美元升至6.85

当企业尝试利用生成式人工智能的强大功能时,往往会产生疑问:到底应该怎样使用生成式人工智能?
生成式人工智能可以提高工作效率,改善客户和员工体验,随着时间推移,它还可以加速推进业务。本文将讨论企业如何使用大型语言模型(LLM)的现有功能,以及如何解决生成式人工智能产生的风险,如“幻觉”等问题。
头脑风暴。公司内部几乎每个领域的工作者都可以将ChatGPT作为头脑风暴的助手。它可以提供初始想法来引发小组讨论,或者进一步探讨员工自己产生的想法。尽管人工智能有时会编造“幻觉”信息,但将其用作头脑风暴助手来激发新想法,所涉及的风险很小。
生成初稿。目前最新、最先进的LLM擅长连续生成与连接上下文的文本,与人类输出非常相似。这种方法可帮助您解决文案方面的难题。您可以考虑使用人工智能来生成内部演示文稿、会议摘要、电子邮件和政策提案的初稿。
处理文档。为了让员工有更多时间从事专业化、高价值的工作,金融公司可将文件、研究报告、记录和新闻报道输入ChatGPT,让ChatGPT帮助总结和提取关键要点。ChatGPT能自动对新文档进行分类,确定哪些文档需要员工仔细查看,还能自动翻译外语文件和客户通信。员工可将数据表格输入ChatGPT,让它帮助起草叙述性文案。
针对不同受众调整内容。员工可将自己的草稿传给ChatGPT,将ChatGPT用作编辑器来修改语气、扩展要点或概括某一部分。例如,您可以将复杂或冗长的演示文稿简化为一组精简的讨论要点,供全体员工会议使用。请务必为可发送到公共生成式人工智能系统(如ChatGPT)的内容制定公司标准。要确保机密的公司内容不会输入到公共模型中,因为公共模型可能会使用您的数据进行训练,从而导致数据泄露。另外,您还可考虑构建一个私有内部系统(慧甚FactSet 已为员工创建此类系统),以确保数据不会外泄。
探索和学习。生成式人工智能非常擅长提供连续的解释说明,可帮助您加速学习过程。例如,您可以询问:“标准投资组合风险分析涉及哪些内容?”人工智能将给出简洁的抽象定义,并可能列出具体元素,如资产配置分析和压力测试等。如果答案太过复杂,您可以要求系统简化答案。您还可以向系统提出更具体的问题,以深入了解该主题。但是,请务必通过可靠的来源验证模型的答案,尤其是当主题超出一般知识范畴时。目前,我们还不能指望LLM提供准确的事实、数据或参考。
指导业务流程。对于诸如“如何建立工作组?”或“你能为新员工创建一个入职培训研讨会吗?”等问题,ChatGPT可以提供有价值的指导方案。用户可以要求ChatGPT提供更多细节,以完善步骤或用于讨论替代方法。
加快编写代码。您公司的开发人员可能已经在使用ChatGPT或其他人工智能代码编写助手来调试软件、编写代码注释和文档、了解代码意图,甚至编写新的代码段。与其他LLM的应用一样,模型输出的准确性必须由人类专家审查。事实证明,用于编写代码的LLM可以为软件工程师节省大量时间,但它们也可能产生无法运行、有缺陷或不安全的代码。如果未经适当验证,这些代码可能会对您的公司构成严重威胁。最近的研究表明,使用人工智能代码编写助手的开发人员所生成的代码安全性较低,但现实中人们却认为它们更安全。因此,采用行业标准的安全检查是人工智能生成代码的关键因素。
开发支持服务的会话机器人。许多企业将通过LLM私有化部署受益。私有化部署通过公司的专有文档可进行微调。由于LLM可能出现不准确的回复,公司应先让内部员工试用聊天机器人。员工可以验证答案、纠正错误,并提供最终结果。这种方法可以节省宝贵时间,同时员工所做的编辑还可作为反馈来改进机器人。最终,更可靠的聊天机器人可以直接面向客户。通过在帮助文档上使用检索增强生成(RAG)方法,而不是仅依赖微调,您可以大幅提高机器人回答的准确性、可靠性和可解释性。
简化用户体验。LLM还可以在软件产品中提供对话界面,使应用更加直观,功能更易于使用,用户无需费力掌握应用中的大量菜单、功能和选项。公司的机器学习团队可以使用LLM来生成合成训练数据,以改进其现有的内部自然语言理解模型。专用LLM可增强员工知识库。这些LLM可以根据公司内部数据进行微调,或使用RAG来回答员工有关公司政策或程序的问题,加速新员工入职流程并减少知识孤岛现象。
验证生成式人工智能的输出
尽管生成式人工智能存在风险,但也有一些有效的应对方法。当您的公司使用生成式人工智能时,信息专员需考虑以下几个重大风险:
■ 幻觉
■ 数据隐私
■ 受版权保护的内容
■ 安全漏洞
法律和合规部门可能需要制定策略以降低与隐私法规和知识产权相关的风险,甚至降低因人工智能生成虚假信息而带来的诽谤风险。安全团队需要警惕更狡猾的网络钓鱼攻击、更泛滥的由人工智能生成的恶意软件,以及未经适当测试的人工智能生成的内部代码。
在“幻觉”方面,用户有必要对生成式人工智能的输出进行验证,特别是对于高风险用例或LLM不擅长的领域。使用生成式人工智能技术进行头脑风暴、创意写作或文档编辑的风险很低,因为您自会评估和修改输出的内容。大型语言模型天生擅长文本处理,因此也很适合改写和总结。
然而,如果您提出的问题需要高度监管的行业(如医学、法律或金融)或更严格领域(如数学或编码)的专业知识来回答,或者当您要求特定参考或引文时,务必仔细审查生成式人工智能的输出,并根据可信来源对其进行验证。
作者简介
LUCY TANCREDI
技术战略计划高级副总裁
Lucy Tancredi是慧甚FactSet的技术战略计划高级副总裁。她负责利用人工智能来提高慧甚的竞争优势和客户体验。她的团队负责开发机器学习和NLP模型,其成果有助于打造创新的个性化产品并提高运营效率。她于1995年在慧甚开始了自己的职业生涯,一直负责领导全球工程团队,开发研究和分析产品以及企业技术。Tancredi拥有麻省理工学院计算机科学学士学位,以及哈佛大学教育学硕士学位。
欢迎与我们分享您在业务上的挑战: https://go.factset.com/zh/
阅读更多
免责声明: 本文内容仅代表作者个人观点,不代表mitrade官方立场,也不能作为投资建议。文章内容仅做参考,读者不应以本文作为任何投资依据。 mitrade对任何以本文为交易依据的结果不承担责任。 Mitrade亦不能保证本文内容的准确性。在做出任何投资决定之前,您应该寻求独立财务顾问的建议,以确保您了解风险。
差价合约(CFD)是杠杆性产品,有可能导致您损失全部 资金。这些产品并不适合所有人,请谨慎投资。查阅详情






