大型语言模型如GPT-3在制药和金融领域的应用仍显不足

自然语言处理(NLP)是机器学习中最令人兴奋的子集之一。这使得我们可以像人类一样与计算机交谈,反之亦然。Siri、谷歌翻译和银行网站上方便的聊天机器人都依赖...


自然语言处理(NLP)是机器学习中最令人兴奋的子集之一。这使得我们可以像人类一样与计算机交谈,反之亦然。Siri、谷歌翻译和银行网站上方便的聊天机器人都依赖于这种人工智能,但并不是所有的NLP系统都是平等的。

在当今的人工智能领域,经过重要数据训练的更小、更有针对性的模型通常更适合商业计划。然而,大规模的NLP系统具有令人难以置信的沟通能力。它们被称为“大规模语言模型”(LLM),可以回答简单的语言查询并生成新颖的文本。不幸的是,它们中的大多数都是新奇的,不适合大多数专业组织对其人工智能系统所要求的专业工作。

Open AI gpt -3最受欢迎的法学硕士之一是工程学的壮举。然而,它们也倾向于输出主观的、不准确的或无意义的文本。这使得这些庞大而流行的模型不适合精度至关重要的行业。

良好的前景


你好人形

现在订阅我们的时事通讯,每周在您的收件箱中回顾您最喜欢的人工智能故事。

在STEM领域没有绝对的赌注,但在可预见的未来,欧洲的NLP技术前景光明。NLP的全球市场目前估计约为135亿美元,但专家表示,仅欧洲市场就在增长。到2030年超过210亿美元。

这为新的创业公司提供了一个广阔的开放市场,以及一些老牌行业参与者,如:dirty When Arria NLGThe前Dataiku最初在巴黎成立,但在全球融资阶段表现非常出色,现在在世界各地都设有办事处。后一家公司Arria NLG本质上是从阿伯丁大学(University of Aberdeen)分拆出来的,而且已经远远超出了它的苏格兰起源。两家公司都致力于以数据为中心的解决方案,为企业、制药和政府服务提供可验证和准确的结果,从而在自然语言处理解决方案的基础上取得巨大成功。

这些特殊渠道如此成功的原因之一是,训练和建立值得信赖的人工智能模型非常困难。例如,在大型数据集上训练的法学硕士倾向于以随机陈述的形式输出“假新闻”。如果你想写想法和灵感,这是有用的,但如果准确性和事实输出很重要,这是完全不可接受的。

我和其中一家公司的首席执行官伊曼纽尔·沃克纳(Emanuel Warkner)谈过。IsopHis总部位于巴黎,是一家人工智能创业公司,专门在制药和金融等标准化行业使用NLP进行自然语言生成(NLG)。根据他的说法,在为这些领域构建人工智能时,没有任何错误的余地。“它必须是完美的,”他告诉TNW。

Yseop CEO Emmanuel Walckenaer

法学硕士的问题

在2022年的人工智能记者中,GPT-3和谷歌的lambda有史以来第一次,专家们能够与机器“交谈”,这产生了有趣而引人注目的文章。更不用说这些模型已经变得非常善于模仿人类了。一些专家甚至认为它们正在变得有知觉。

这些系统令人印象深刻,但正如上面提到的,它们通常是完全不可靠的,它们是脆弱的,不可靠的,容易编造。用外行的话来说,他们是愚蠢的骗子。原因在于他们的训练方法。

法学硕士是数学和语言学的完美结合。但最根本的是,它们依赖于训练数据。例如,你不能指望训练人工智能。语料库的Reddit帖子,不认为有事实矛盾。正如那句老话所说,你付出什么就会得到什么。

例如,如果您在一个充满烹饪食谱的数据集上训练LLM,您可以开发一个可以根据需要生成新食谱的系统。您甚至可以要求它为数据库中没有的东西生成新颖的食谱。比如,咖喱小熊软糖。

就像人类厨师需要利用他们的烹饪背景来弄清楚如何将小熊软糖融入类似咖喱菜的东西一样,人工智能可以根据它所接受的训练来组合新的食谱。如果它是在一个咖喱食谱数据库上训练的,那么它很有可能输出的结果至少接近于人类给出的相同任务。

但是,如果训练人工智能的团队使用了一个巨大的数据集,里面装满了数十亿或数万亿个与咖喱无关的互联网文件,你永远不知道机器会吐出什么。你可能会得到一个很棒的食谱,或者你可能会随机输出对NBA超级巨星斯蒂芬库里的评论。

Steph Curry

这是操作一个大型LLM的有趣部分。当我运行查询时,我完全不知道我得到了什么。但医疗、金融或商业情报报告没有给这种不确定性留下任何余地。

控制人类的知识以供机器使用

为标准化行业开发人工智能解决方案的公司无法承受在庞大的数据库上对庞大的模型进行暴力训练,只是为了看看它们的能力。他们系统的输出通常提交给监管机构,如USFDA和全球金融监管机构进行审查。出于这个原因,这些组织必须密切关注他们训练模型的数据类型。

根据Walckenaer的说法,Yseop的首要任务是确保用于训练系统的数据准确且符合道德规范。这意味着我们只使用相关数据并将其匿名化以删除个人身份信息,从而不会损害个人隐私。

接下来,该公司必须确保其机器学习系统没有偏见、遗漏和疏忽。幻觉。是的,没错。当试图输出100%准确的信息时,这是一个大问题。

为了克服幻觉的问题,Yseop依赖于在每个阶段将人类置于循环中。该公司的算法和神经网络由数学家、语言学家和人工智能开发人员共同开发。他们的数据库由产品提供的研究人员和公司直接提供的数据组成。他们的大部分服务都是通过SaaS完成的,旨在“增强”人类专家,而不是取代他们。

由于每个阶段都有人类参与,所以要进行检查,以确保人工智能不会接受提供的数据,并对新的骗局产生“幻觉”。例如,这可以防止系统使用真实的患者数据作为模板,并输出关于不存在的患者的虚假数据。

开发人员在语言处理中必须克服的下一个问题是省略。当AI模型在输出信息时跳过数据库的相关或重要部分时,就会发生这种情况。

像GPT-3这样的大型法学硕士并没有缩写问题。无论如何,我不确定从这些“一切皆有可能”的系统中期待什么。然而,旨在帮助专业人士和公司对有限数据集进行分类的目标模型只能以揭示所有相关信息的方式“包含”。有帮助的。

大型法学硕士通常无法跨越的最后一个主要障碍是偏见。技术偏差是最常见的一种形式。当系统被设计成这样,它产生的输出不遵循科学的方法时,就会发生这种偏差。

技术偏见的一个经典例子是教机器“预测”一个人的性取向。这种人工智能没有科学依据(参见我们的文章,为什么它被认为是“基达”)。只是废话和骗人的油),他们只能通过纯粹的技术偏见来制造虚假的产出。

no gaydar

其他可能潜入NLP和NLG模型的常见偏见包括人为偏见(当人类由于文化或故意误解而不恰当地标记数据时发生)和制度偏见。

对于依赖准确的数据和输出来做出重要决策的组织来说,最后一个可能是一个大问题。在制药和金融等标准化行业,这种偏见可能会导致患者预后不佳和财务崩溃。偏见是人工智能中最大的问题之一,像GPT-3这样的法学硕士基本上和他们接受训练的数据库一样有偏见。

虽然很难完全消除偏见,但最好只使用最高质量的手工检查数据,并设置系统的“参数”(基本上,允许开发者微调虚拟刻度盘和旋钮),这有助于减少偏见。AI输出-调好。

GPT-3和类似的模型能够惊人的散文技艺,有时甚至欺骗一些专家。然而,它完全不适合一个标准化的行业,因为准确性和问责制是最重要的。

为什么要使用人工智能

当风险很高时,采用LLM或NLP/NLG似乎是个坏主意。例如,在制药行业,偏差和遗漏会极大地影响临床报告的准确性。谁会愿意相信一台能预见自己未来财务状况的机器呢?

幸运的是,像Yseop这样的公司并没有使用充满未经检查信息的开放式数据集。诚然,您不太可能要求Yseop的制药模型写一首歌或创建一个合适的咖喱食谱(使用当前数据集),但是控制输出的数据和参数是经过仔细选择的。它是经过审查和使用的,所以可以说是可靠的。构建它们的任务。

但问题仍然存在,为什么要使用人工智能?到目前为止,我们已经使用了非自动化的软件解决方案。

沃尔肯纳尔告诉我,我可能很快就没有选择了。他说,人类劳动力没有跟上,至少在制药行业是这样。

Walckenaer说:“未来十年,对医学作家的需求将增加两倍。”他补充说,Yseop的系统可以将该行业的效率提高50%。它改变了游戏规则。对于那些担心被机器取代的人来说,这是个好消息。他确信,Yseop的系统是为了增强熟练的人类劳动力,而不是取代他们。

在其他标准化行业,如金融和商业智能领域,NLP和NLG有助于减少或消除人为错误。虽然这可能没有拥有一个法学硕士那么令人兴奋,因为它可以假装和你聊天,就像一个著名的历史人物,或者只要按一下按钮就能产生假新闻,但现在有成千上万的企业正在节省时间和金钱。

https://thenextweb.com/news/large-language-models-like-gpt-3-arent-good-enough-for-pharma-finance像GPT-3这样的大型语言模型对于制药和金融来说还不够好

本文来自作者[一吃就胖小小翠]投稿,不代表庞周资讯立场,如若转载,请注明出处:https://www.pangbaba.cn/wiki/202505-2439.html

(4)

文章推荐

发表回复

本站作者后才能评论

评论列表(4条)

  • 一吃就胖小小翠
    一吃就胖小小翠 2025年05月25日

    我是庞周资讯的签约作者“一吃就胖小小翠”!

  • 一吃就胖小小翠
    一吃就胖小小翠 2025年05月25日

    希望本篇文章《大型语言模型如GPT-3在制药和金融领域的应用仍显不足》能对你有所帮助!

  • 一吃就胖小小翠
    一吃就胖小小翠 2025年05月25日

    本站[庞周资讯]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育

  • 一吃就胖小小翠
    一吃就胖小小翠 2025年05月25日

    本文概览:自然语言处理(NLP)是机器学习中最令人兴奋的子集之一。这使得我们可以像人类一样与计算机交谈,反之亦然。Siri、谷歌翻译和银行网站上方便的聊天机器人都依赖...

    联系我们

    邮件:庞周资讯@sina.com

    工作时间:周一至周五,9:30-18:30,节假日休息

    关注我们