分类: ChatGPT

基于神经网络的偏微分方程求解器新突破:北大&字节研究成果入选Nature子刊

近年来,基于神经网络的偏微分方程求解器在各领域均得到了广泛关注。其中,量子变分蒙特卡洛方法(NNVMC)在量子化学领域异军突起,对于一系列问题的解决展现……

使用Rust的Linfa和Polars库进行机器学习:线性回归

在这篇文章中,我们将使用Rust的Linfa库和Polars库来实现机器学习中的线性回归算法。 Linfa crate旨在提供一个全面的工具包来使用Rust构建机器学习应用程序。 ……

想训练类Sora模型吗?尤洋团队OpenDiT实现80%加速

根据 OpenAI 披露的技术报告,Sora 的核心技术点之一是将视觉数据转化为 patch 的统一表征形式,并通过 Transformer 和扩散模型结合,展现了卓越的扩展(scale……

揭秘扩散模型背后的“硬核骨架”:一文读懂Backbone在生成艺术与智能决策中的关键作用

引子:揭开扩散模型及其“脊梁骨”的神秘面纱 如今,AI创作的精美画作、音视频内容层出不穷,其中有一项技术犹如魔法般从无到有地创造出惊艳作品,那就是扩散模……

LLaMa 3或将推迟到7月发布,剑指GPT-4,从Gemini吸取教训

过去的图像生成模型常被人们诟病人物主要以「白人」为主,而谷歌 Gemini 正在因为它的矫枉过正而深陷翻车风波。它「过度谨慎」的文生图结果会与历史事实出现极……

基于大型语言模型和向量数据库开发新闻推荐系统

近年来,随着诸如ChatGPT、Bard等生成式人工智能工具的发布,大型语言模型(LLM)在机器学习社区引起了全球热议。这些解决方案背后的核心思想之一是计算非结构……

微软、国科大开启1Bit时代:大模型转三进制,速度快4倍能耗降至1/41

把大模型的权重统统改成三元表示,速度和效率的提升让人害怕。 今天凌晨,由微软、国科大等机构提交的一篇论文在 AI 圈里被人们争相转阅。该研究提出了一种 1-……

如何使用小型自动生成的数据集训练编码LLM

虽然像GPT-4这样的大型语言模型(LLM)在编写软件代码方面非常精通,但是这些模型的成本和不透明性激发了人们对更加经济、规模更小的编码LLM的兴趣。 这些替代方……

如何使用小型自动生成的数据集训练编码LLM

虽然像GPT-4这样的大型语言模型(LLM)在编写软件代码方面非常精通,但是这些模型的成本和不透明性激发了人们对更加经济、规模更小的编码LLM的兴趣。   这……

SQL可以做ChatGPT吗?答案是YES!

ChatGPT俨然已经风靡全球。今天我们的问题是,SQL可以做ChatGPT吗? 一起来看看吗。 Couchbase N1QL,又名SQL++,是一种类似SQL的语言,用于查询存储在Couchba……