GPT-4正接管人类数据专家!先验知识让LLM大胆预测,准确率堪比传统方式

在数据科学中,AI研究员经常面临处理不完整数据集的挑战。

然而,许多已有的算法根本无法处理「不完整」的数据序列。

传统上,数据科学家会求助于专家,利用他们的专业知识来填补空白,然而这一过程既耗时,却又不实用。

如果AI可以接管专家的角色,又会如何呢?

近日,来自德国人工智能中心、大阪公立大学等团队的研究人员,调查了LLM能否足以充当数字专家。

毕竟,当前大模型都在大量文本的基础上进行了训练,可能对医学数据、社会科学等不同主题的问题有着深刻的理解。

研究人员通过将LLM的答案与实际数据进行比较,并建立了处理数据差距的统计方法。

结果表明,在许多情况下,LLM可以在不依赖人类专家的情况下,提供与传统方法类似的准确估计。

用LLM进行「数据插补」

在分析数据时,无论是医学、经济学还是环境研究,经常会遇到信息不完整的问题。

这就需要用到两种关键技术:先验启发(确定先验知识)和数据插补(补充缺失数据)。

先验启发是指,系统地收集现有的专家知识,以对模型中的某些参数做出假设。

另一方面,当我们的数据集中缺少信息时,数据插补就开始发挥作用。

科学家们不会因为一些缺失而放弃有价值的数据集,而是使用统计方法用看似合理的值来填补。

研究中,主要采用的数据集为OpenML-CC18 Curated Classification Benchmark,其中包括72个分类数据集,涵盖从信用评级到医药和营销等各个领域。

这种多样性确保了实验涵盖了广泛的现实世界场景,并为LLM在不同环境下的性能提供了相关见解。

值得一提的是,最新方法中最关键的一个步骤便是——人为在数据集中生成缺失值,以模拟数据点不完整的情况。

研究人员用随机缺失(MAR)模式从完整条目中生成这种缺失数据,以便与基本事实进行比较。

他们首先从OpenML描述中,为每个数据集生成一个适当的专家角色,然后使用它来初始化LLM,以便可以查询它是否缺少值。

使用LLM进行插值,包括LLaMA 2 13B Chat、LLaMA 2 70B Chat、Mistral 7B Instruct,以及Mixtral 8x7B Instruct,每一种都进行了单独的评估。

将这些模型与这类分析中常用的3种经验方法进行了比较:分别用于连续特征和分类特征的平均值和模式估算、k-近邻(k-NN)估算和随机森林估算。

归因质量的评估基于,连续特征和分类特征的归一化均方根误差(NRMSE)和F1分数。

通过这一方法,能够让研究人员可以调查LLM作为数据推算专家的能力,而且还可以将其表现与传统方法进行比较。

这种创新的方法在处理不完整的数据集方面开辟了新的视角,并突出了LLM在数据科学中的潜力。

与传统方法比较

与预期相反,分析结果表明,LLM的估算质量一般不会超过三种经验方法。

然而,基于LLM的插补对于某些数据集是有用的,特别是在工程和计算机视觉领域。

一些数据集,如这些领域的「PC1」、「PC3」和「Satimage」,表现出NRMSE约为0.1的归因质量,在生物学和NLP领域也观察到了类似的结果。

有趣的是,基于LLM归因的下游表现因领域而异。

虽然社会科学和心理学等领域表现较差,但医学、经济学、商业和生物学表现较好。值得注意的是,基于LLM的插补在商业领域表现最好。

此外,研究还表明,至少在某些领域,LLM可以基于其丰富的训练数据提供准确和相关的估计,这些数据可以与真实世界的数据相匹配。

使用LLM进行数据插补是有前景的,但它需要仔细考虑领域和特定用例。

因此,这项研究结果有助于更好地理解LLM在数据科学中的潜力和局限性。

用LLM先验启发

此外,研究人员还利用LLM研究了先验启发,旨在评估LLM能否提供有关特征分布的信息,以及这对数据收集和后续数据分析有何影响。

特别是,进一步了解LLM所获得的先验分布的影响和有效性,并比较它们与传统方法和模型的性能如何。

作者将LLM的估计值与Stefan等人的实验结果进行了比较。

在该实验中,6位心理学研究人员被问及各自领域中典型的中小效应量和皮尔逊相关性。

使用类似的问题,要求LLM模拟一个专家、一组专家或一个非专家,然后查询优先级分布。

在进行这项工作时,可以参考或不参考对比实验中使用的访谈方案。

这里研究人员提出一种全新的提示策略,要求模型为贝叶斯数据分析提供专家知情的先验分布。

在此过程中,ChatGPT 3.5展示了其对学术启发框架的熟悉程度,比如谢菲尔德启发框架与直方图方法相结合。

研究人员使用该框架生成了全球25个大小城市12月份典型日气温和降水量的先验分布。

ChatGPT使用从训练数据中获得的知识进行模拟专家讨论,并构建参数概率分布。

实验结果

令人惊讶的是,不同子领域的专家角色对LLM产生的先验没有显著影响。

在实验中,无论他们扮演什么角色,他们的判断都非常相似:

大多数人工专家都倾向于谨慎预测,认为影响较小。只有GPT-4专家比较大胆,认为影响中等偏大。

当涉及到两个事物之间的关系时,比如天气对我们购物行为的影响,数字助理们与真人的观点有所不同。

有些数字助理呈现出一条中间低、边缘高的「浴缸」曲线,而GPT-4则向我们展示了一条更平滑的钟形曲线。

然后,作者还观察了这些数字专家对他们的预测的信心。一些人相当谨慎,提供了保守的估计,除了Mistral 7B Instruct——对其估计的质量非常有信心。

综上所述,这些结果还表明,LLM在某些方面能够产生与人类专家判断竞争的先验,但在其他方面却显著不同。

结论

这项研究表明,在医学、经济和生物等领域,LLM已经可以基于传统的数据插补的方法,提供有价值的见解。

LLM能够综合来自各种来源的知识,并将其应用于特定的应用环境,为数据分析开辟了新的视野。

特别是在专家难觅,或时间宝贵的情况下,LLM可以成为宝贵的资源。

免责声明:文章内容不代表本站立场,仅供读者参考。产品相关技术问题请发送工单。 本文链接:https://www.idc.net/help/415448/

为您推荐

当"狂飙"的大模型撞上推荐系统

随着以 ChatGPT 为代表的大模型技术的迅速发展,推荐系统正经历着一场革命性的变革。传统的推荐系统主要基于用户和物品的历史行为数据进行预测,大模型技术的出现,为推荐系统带来了更强的泛化能力和更高的效率,解决了传统推荐系统中的一些难题,如用户和物品数量的巨大规模、不可观测因素对推荐的影响等。同时,大模型推荐技术也带来...

谷歌杀入开源大模型,单挑Meta Llama2,凭什么问鼎王座?

兵贵神速。在大模型的必争之地,谷歌却总是慢人一步,因而屡屡被调侃“起了大早,赶个晚集”。但昨日,谷歌却突放大招,发布了一款开放模型——Gemma,并声称其是轻量级中“最先进的”开放模型系列,超越了原本最强的Mistral 7B。 这款以拉丁语“宝石”命名的模型在此时推出颇有意味。其一,据谷歌官网介绍,Gemma采用了与...

重要的医学AI应用:使用多模态 CNN-DDI 预测药物间相互作用事件

生病时,医生往往给我们开了多种药物,这些药物在同时服下时是否因为药物间相互作用产生对身体不良的效果,这引起我们的怀疑和担心。其实医生所开的药方的药品已经经过了药物间相互作用的实验和临床测试,我们不应对此产生疑虑。 药物间相互作用(DDI)是指当一个患者同时服用多种药物时,药物之间可能发生的反应,这些反应可能会影响药物的...

谷歌AI新星转投Pika:视频生成Lumiere一作,担任创始科学家

视频生成进展如火如荼,Pika迎来一位大将—— 谷歌研究员Omer Bar-Tal,担任Pika创始科学家。 一个月前,还在谷歌以共同一作的身份发布视频生成模型Lumiere,效果十分惊艳。 当时网友表示:谷歌加入视频生成战局,又有好戏可看了。 Stability AI CEO、谷歌前同事等在内一些业内人士送上了祝福。...

推动转型成功的四项人工智能核心原则

新项目可能会引起员工的恐惧感,而引入变革的整体文化也会反映出这种恐惧感是如何表达和处理的。但是,一些共同特征是人工智能转型成功的核心。以下是他的著作《商业人工智能》(AI for Business)中的一段摘录:英国数据和人工智能解决方案咨询公司 Northell Partners 的创始人彼得-韦斯特(Peter V...
返回顶部