我是大林。
OpenAI 发表的最新论文,值得一读
We present a new research direction for superalignment, together with promising initial results: can we leverage the generalization properties of deep learning to control strong models with weak supervisors?
我们提出了超对齐的新研究方向,并取得了可喜的初步成果:我们能否利用深度学习的泛化特性来控制弱主管的强模型
A core challenge for aligning future superhuman AI systems (superalignment) is that humans will need to supervise AI systems much smarter than them. We study a simple analogy: can small models supervise large models? We show that we can use a GPT-2-level model to elicit most of GPT-4’s capabilities—close to GPT-3.5-level performance—generalizing correctly even to hard problems where the small model failed. This opens up a new research direction that allows us to directly tackle a central challenge of aligning future superhuman models while making iterative empirical progress today.
对齐未来超人人工智能系统(superalignment)的一个核心挑战是,人类将需要比它们更聪明地监督人工智能系统。我们研究一个简单的类比:小模型可以监督大模型吗?我们表明,我们可以使用 GPT-2 级模型来引出 GPT-4 的大部分功能——接近 GPT-3.5 级性能——甚至可以正确地泛化到小模型失败的难题。这开辟了一个新的研究方向,使我们能够直接解决一个核心挑战,即调整未来的超人模型,同时在今天进行迭代的实证进展。
The superalignment problem 超对齐问题
We believe superintelligence—AI vastly smarter than humans—could be developed within the next ten years. However, we still do not know how to reliably steer and control superhuman AI systems. Solving this problem is essential for ensuring that even the most advanced AI systems in the future remain safe and beneficial to humanity.
我们相信超级智能——比人类聪明得多的人工智能——可以在未来十年内发展出来。然而,我们仍然不知道如何可靠地引导和控制超人的人工智能系统。解决这个问题对于确保未来最先进的人工智能系统仍然安全并造福人类至关重要。
We formed the Superalignment team earlier this year to solve this problem of superintelligence alignment. Today, we are releasing the team’s first paper, which introduces a new research direction for empirically aligning superhuman models.
今年早些时候,我们成立了超级对齐团队,以解决这个超级智能对齐的问题。今天,我们发布了该团队的第一篇论文 ,该论文介绍了实证对齐超人模型的新研究方向。
Current alignment methods, such as reinforcement learning from human feedback (RLHF), rely on human supervision. However, future AI systems will be capable of extremely complex and creative behaviors that will make it hard for humans to reliably supervise them. For example, superhuman models may be able to write millions of lines of novel—and potentially dangerous—computer code that would be very hard even for expert humans to understand.
当前的对齐方法,例如来自人类反馈的强化学习 (RLHF),依赖于人类监督。然而,未来的人工智能系统将能够做出极其复杂和创造性的行为,这将使人类难以可靠地监督它们。例如,超人模型可能能够编写数百万行新颖且具有潜在危险的计算机代码,即使专家人类也很难理解。
Relative to superhuman AI models, humans will be “weak supervisors.” This is a core challenge for AGI alignment: how can weak supervisors trust and control substantially stronger models?
相对于超人的AI模型,人类将是“弱监管者”。这是AGI一致性的核心挑战:薄弱的主管如何信任和控制更强大的模型?
To make progress on this core challenge, we propose an analogy we can empirically study today: can we use a smaller (less capable) model to supervise a larger (more capable) model?
为了在这个核心挑战上取得进展,我们提出了一个我们今天可以实证研究的类比:我们能否使用一个更小(能力较弱)的模型来监督一个更大(能力更强)的模型?
Naively, we might not expect a strong model to perform better than the weak supervisor that provides its training signal—it may simply learn to imitate all the errors the weak supervisor makes. On the other hand, strong pretrained models have excellent raw capabilities—we don't need to teach them new tasks from scratch, we just need to elicit their latent knowledge. The critical question is then: will the strong model generalize according to the weak supervisor's underlying intent—leveraging its full capabilities to solve the task even on difficult problems where the weak supervisor can only provide incomplete or flawed training labels?
天真地,我们可能不会期望一个强大的模型比提供训练信号的弱主管表现得更好——它可能只是学会模仿弱主管所犯的所有错误。另一方面,强大的预训练模型具有出色的原始能力——我们不需要从头开始教他们新任务,我们只需要引出他们的潜在知识。那么关键的问题是:强模型是否会根据弱主管的潜在意图进行概括——利用其全部能力来解决任务,即使是在弱主管只能提供不完整或有缺陷的培训标签的难题上?
Our results 我们的成果
We can significantly improve generalization in many settings. We use a simple method that encourages the strong model to be more confident—including confidently disagreeing with the weak supervisor if necessary. When we supervise GPT-4 with a GPT-2-level model using this method on NLP tasks, the resulting model typically performs somewhere between GPT-3 and GPT-3.5. We are able to recover much of GPT-4’s capabilities with only much weaker supervision.
我们可以在许多情况下显着提高泛化能力。我们使用一种简单的方法,鼓励强势的模型更加自信,包括在必要时自信地与弱势的主管意见相左。当我们在 NLP 任务上使用这种方法使用 GPT-2 级模型监督 GPT-4 时,生成的模型通常在 GPT-3 和 GPT-3.5 之间执行。我们能够在更弱的监督下恢复 GPT-4 的大部分功能。
This method is a proof of concept with important limitations; for example, it still doesn’t work on ChatGPT preference data. However, we also find signs of life with other approaches, such as optimal early stopping and bootstrapping from small to intermediate to large models.
这种方法是具有重要局限性的概念证明;例如,它仍然不适用于 ChatGPT 偏好数据。然而,我们也发现了其他方法的生命迹象,例如最佳的早期停止和从小型到中型再到大型模型的引导。
Collectively, our results suggest that (1) naive human supervision—such as reinforcement learning from human feedback (RLHF)—could scale poorly to superhuman models without further work, but (2) it is feasible to substantially improve weak-to-strong generalization.
总的来说,我们的结果表明,(1)幼稚的人类监督 - 例如来自人类反馈的强化学习(RLHF) - 可以在没有进一步工作的情况下很好地扩展到超人模型,但(2)大幅改善弱到强的泛化是可行的。
Q1:本文研究的主要内容是什么?
弱到强的泛化:通过弱监督引出强大模型的完整能力
广泛使用的对齐技术,如基于人类反馈的强化学习(RLHF),依赖于人类能够监督模型行为,例如评估模型是否忠实地遵循指令或生成安全的输出。
然而,未来的超人类模型将以复杂的方式行为,这使得人类难以可靠地评估;人类只能对超人类模型进行弱监督。
我们研究了这个问题的一个类比:弱模型监督能否引出比它更强的模型的全部能力?我们使用 GPT-4 系列的一系列预训练语言模型在自然语言处理(NLP)、象棋和奖励建模任务上进行测试。
我们发现,当我们简单地在强预训练模型上进行弱监督微调时,它们在各种任务上的表现始终优于它们的弱监督者,这种现象我们称之为弱到强的泛化。然而,仅通过简单的微调,我们距离恢复强模型的全部能力还很远,这表明像 RLHF 这样的技术在没有进一步研究的情况下可能难以应用于超人类模型。
我们发现简单的方法可以显著改善弱到强的泛化:例如,在 GPT-4 上使用 GPT-2 级别的监督和一个辅助置信损失进行微调,我们可以恢复在 NLP 任务上接近 GPT-3.5 级别的性能。我们的结果表明,在当前就可以取得实际进展,以应对对齐超人类模型这一基本挑战。
Q2:文章的引言部分都介绍了哪些内容
文章的引言部分主要介绍了以下几个方面的内容:
- 对齐技术的发展:提到了目前在对齐技术方面的研究主要依赖于人类反馈,如强化学习从人类反馈(RLHF)。这些方法在让模型遵循人类评价和指示方面取得了很好的效果。
- 超人类模型的挑战:指出未来可能出现的超人类模型会表现出复杂和创造性的行为,这将超出人类的理解能力,使得人类难以对其进行有效的监督和评估。这给对齐超人类模型带来了根本性的技术挑战。
- 弱到强泛化问题的提出:为了研究这个对齐超人类模型的问题,作者提出了一个弱到强泛化的问题作为类比。即如何让强大的模型通过弱监督学习来发挥其全部潜力。这个问题可以让我们用现有的模型和数据来研究超人类模型对齐所面临的挑战。
- 文章的贡献:作者通过在GPT-4系列模型上进行实验,发现弱到强泛化是可能的,但仅通过简单的方法还远远不够。文章提出了一些改进方法,并讨论了实验结果对理解超人类模型对齐问题的意义。
- 文章的结构:简要介绍了文章的组织结构,包括任务、方法、主要结果、讨论等部分。
总的来说,引言部分阐述了文章的研究背景、动机、主要贡献和结构,为后续的论文内容奠定了基础。
Q3:图一描述了什么内容
图1:弱到强泛化问题的说明。传统的机器学习关注人类监督比模型更强的情况。对于最终的超对齐问题,人类需要监督比他们更强大的模型。我们研究一个类似的问题:使用弱模型来监督强模型。
这个图通过一个图示的方式,表达了弱到强泛化问题的核心思想。图中左侧表示传统的机器学习场景,人类(H)监督者的能力高于模型(M),即人类可以有效地评估和指导模型的行为。而图的右侧表示超对齐问题的场景,这里人类(H)的能力无法覆盖模型(M),即人类难以对模型的行为做出准确的评估和指导。这种情况下,如何让强大的模型通过弱监督学习就成为了一个关键的挑战。图中的箭头表示学习的方向,即从监督者到被监督的模型。这个图形象地展示了弱到强泛化问题与常规监督学习的不同之处。
Q4:图二描述了什么内容
强模型通过弱监督泛化的性能。我们展示了在弱监督下的强学生模型(经过微调的GPT-4)在自然语言处理任务(左侧)、象棋谜题(中间)和ChatGPT奖励建模任务(右侧)上的表现。在所有这些任务中,强模型都能不同程度地泛化到超过其弱监督者的水平。具体来说,在自然语言处理任务上,强模型通常能恢复约一半的与弱模型之间的性能差距。在象棋谜题任务上,随着弱监督者规模的增加,泛化性能会提高。在奖励建模任务上,即使使用简单的方法,弱到强泛化的性能也相对较差。总的来说,这些结果表明,通过弱监督实现强模型的泛化是可能的,但目前的方法仍有局限。
这个图通过三个子图,展示了在不同任务上,强模型通过弱监督实现泛化的性能。图中的横轴表示弱监督者(即用于微调的模型)的计算资源占比,纵轴表示强模型在测试集上的性能。从图中可以看出,在所有任务中,强模型都能在一定程度上泛化到超过其弱监督者的水平,即实现弱到强的泛化。这验证了这一方法的可行性。不过,不同任务之间的泛化程度存在差异,有些任务(如图中的奖励建模任务)的泛化性能还有很大的提升空间。这为后续研究提供了方向。
Q5:RELATED WORK 主要介绍了几个方面的工作
在论文的Related Work部分,主要介绍了以下几个方面的相关工作:
- 弱监督学习(Weakly-supervised learning):讨论了与弱到强学习相关的一种学习方法,即在训练时使用不完全或不可靠的标签。介绍了一些常用的方法,如自举法、噪声鲁棒性损失和噪声建模等。
- 学生-教师训练(Student-teacher training):描述了一种训练框架,先训练一个教师模型,然后使用教师模型的伪标签来训练一个学生模型。讨论了这种方法与弱到强学习的联系和区别。
- 模型的鲁棒性和微调(Robustness of pretraining and finetuning):提到了许多论文已经证明,大规模预训练可以得到更健壮的表示,能够在分布外数据上更好地泛化。同时,微调通常会提高分布内泛化能力,但在分布外表现较差。讨论了一些缓解这个问题的方法,如权重集成、只微调部分层等。
- 去偏(Debiasing):介绍了在学习有偏训练数据的情况下,如何消除模型偏差的相关研究。指出了弱到强学习可以看作是一个特殊的去偏问题,即偏置是未知的。
- 模仿和偏好学习(Imitation and preference learning):简要介绍了目前对齐预训练语言模型的两种主要方法,即模仿学习和基于人类偏好的学习。指出这两种方法都依赖于高质量的人类监督,对于超人类模型可能不适用。
- 可扩展的监督(Scalable oversight):概述了提高人类监督能力的技术,如让模型相互评估输出或将问题分解为更简单的子问题。这些方法通常利用问题的特殊结构,与弱到强学习关注泛化能力不同。
- 知识引出和诚实(Knowledge elicitation and honesty):提到了关于如何从超人类模型中引出其潜在知识的一些理论问题和实证研究。指出弱到强学习的设置可以用于研究这些问题。
综上,Related Work部分回顾了与弱到强学习相关的多个领域的研究,为后续的论文内容提供了理论基础。
Q6:第三章,METHODOLOGY,主要介绍的内容是什么
第三章METHODOLOGY主要介绍了论文的研究方法。具体来说,主要包括以下几个方面:
- 弱监督者的创建:首先描述了如何创建弱监督者。这通常是通过在任务的标注数据上训练一个较小的预训练模型来实现的。然后,这个弱监督者对其未见过的测试数据进行预测,生成软标签作为后续训练的弱监督信号。
- 强学生的训练:接着描述了如何使用弱监督信号来训练一个更大的模型,称为强学生。具体来说,就是用弱监督者的预测结果作为训练标签,微调强学生模型。这样训练出的模型被称为弱到强学生。
- 强天花板模型的训练:为了作为性能的上限,还训练了一个强天花板模型。这个模型也是在标注数据上进行微调,使用真实的训练标签而非弱监督信号。
- 性能评估:定义了性能差距恢复率(PGR)作为评估指标。PGR衡量了弱到强学生相对于弱监督者提升了多少性能。具体计算方式是弱到强学生的性能与弱监督者的性能之差,除以强天花板模型的性能与弱监督者的性能之差。
- 实验设置:描述了在哪些任务上进行实验,包括自然语言处理任务、象棋谜题和奖励建模任务。同时,使用了GPT-4系列的多个模型进行实验。
这一章主要阐述了论文的研究设计和实验设置,为后续的实验结果提供了操作性的定义。通过明确弱到强学习的形式化定义,使得这一问题的研究具有可重复性。
这一章节(第三章)中提到了Advantages和Limitations,具体是什么
在第三章METHODOLOGY中,论文提到了所提出的弱到强学习实验设置的Advantages(优势)和Limitations(局限性)。具体如下:
Advantages(优势):
- 可扩展性:该设置可以应用于任何一对弱和强模型,便于研究弱到强学习的扩展性,不需要昂贵的最先进的模型。同时,由于不涉及人类,反馈速度快。
- 任务灵活性:该设置可以应用于任何感兴趣的任务,便于在不同领域进行广泛的实证研究。
- 实用性:即使在没有超人类模型的情况下,找到方法使当前模型(如GPT-4)在只有弱人类监督或GPT-3级别监督下对齐,也会使当前的模型对齐更加方便。
Limitations(局限性):
- 模仿显著性:未来的超人类模型可能具有显著的模仿人类行为的能力,但目前的强模型可能没有学会模仿弱模型预测的相关特征。因此,避免模仿弱监督的错误可能在设置中比未来更容易。
- 预训练泄漏:预训练数据隐含了人类的监督,因此可能人为地容易引出强模型的潜在能力,因为它们直接预训练以观察人类级别的性能。超人类的性能可能不会直接观察到,而可能更加潜在,例如通过自监督学习获得,因此可能更难引出。
总的来说,论文既阐述了所提出方法的优点,也承认了其局限性,并指出需要进一步改进和迭代以解决这些局限性。这有助于更全面地理解该方法的意义和应用前景。
Q7:第四章节,讨论了MAIN RESULTS,主要内容是哪些
第四章MAIN RESULTS部分主要报告了论文的实验结果。主要包括以下几个方面:
- 弱到强泛化现象:在自然语言处理任务、象棋谜题和奖励建模任务中,当使用弱模型监督训练强大模型时,强大模型的表现普遍优于其弱监督者。这表明了弱到强泛化现象的存在。
- PGR随模型规模的变化:在自然语言处理任务中,PGR随弱监督者和强学生模型规模的增加而增加。在象棋谜题任务中,PGR对弱监督者规模较为敏感,对强学生规模则呈下降趋势。在奖励建模任务中,PGR相对较低。
- 改进方法:论文提出了一些简单的方法来改善弱到强泛化,如使用辅助置信损失、自举法和无监督微调。这些方法在某些情况下可以显著提高PGR,特别是在自然语言处理任务中。
- 方法的局限性:尽管这些方法在某些任务上取得了一定的改善,但它们并未在所有任务上都表现出一致的效果。特别是在奖励建模任务中,这些方法仍然无法大幅度提高PGR。这表明现有的方法仍有局限性,需要进一步研究。
总的来说,第四章主要展示了弱到强泛化现象的普遍存在性,以及一些简单方法在改善泛化性能方面的潜力。同时,也指出了现有方法的不足,为后续研究提供了方向。
Q8:第四章节,讨论了MAIN RESULTS,其中TASKS介绍了什么
在第四章MAIN RESULTS中,TASKS部分主要介绍了论文进行实验的三个任务,具体如下:
- 自然语言处理(NLP)任务:论文选择了22个流行的NLP分类数据集,涵盖了伦理、常识推理、自然语言推断、情感分析等多个领域。所有数据集都被转换为二分类任务。强模型和弱模型的预测结果被采样为软标签,用于训练和评估。
- 象棋谜题:使用了Schwarzschild等人(2021)提出的数据集,包含来自lichess.org网站的象棋谜题。每个谜题包含一个棋盘位置和一系列最优移动来解决谜题。评估时预测第一个移动。这是一个生成任务,与NLP任务不同。
- ChatGPT奖励建模:这个任务的目标是训练一个奖励模型来预测人类对模型响应的偏好。论文使用了OpenAI专有的数据集,该数据集用于训练ChatGPT的奖励模型。对于这个任务,论文关注奖励模型的准确性而非优化。
这三个任务涵盖了不同的领域和类型,使得论文能够从多个角度评估弱到强泛化现象。同时,它们在难度和复杂性上也存在差异,有助于理解泛化性能的影响因素。
Q9:4.2小节,NAIVELY FINETUNING ON WEAK LABELS,介绍了什么
在第四章的4.2小节中,论文介绍了在三个任务上使用弱监督信号对强大模型进行简单微调(naively finetuning)的结果。主要发现如下:
- 在自然语言处理任务中,简单微调的强学生模型在几乎所有情况下都优于其弱监督者,即使在计算能力相差很大的情况下。性能差距恢复(PGR)随着弱监督者和强学生模型规模的增加而增加。在最大的学生模型中,PGR通常在50%以上。
- 在象棋谜题任务中,当使用较小的弱监督者时,PGR接近零,但随着弱监督者规模的增加,PGR显著提高。对于较小的监督者-学生差距,PGR可以达到40%以上。然而,PGR随着强学生规模的增加而降低。
- 在ChatGPT奖励建模任务中,简单微调的弱到强泛化效果较差,通常只能恢复约10%的性能差距。即使在相对较小的计算能力差距下,PGR也很少超过20%。
总的来说,这一节展示了在不同任务中,简单微调的强模型普遍能够实现弱到强泛化,优于其弱监督者。这为后续研究提供了一个基准。然而,这些结果也表明目前的泛化效果还远未达到最佳,特别是在奖励建模任务中。这为后续寻找更有效的泛化方法提供了动力。
Q10:Figure 3描述了什么内容
Figure 3描述了在三个任务上,强学生模型在不同弱监督者和强学生模型规模下的性能。具体来说,这个图分为三个子图,分别对应自然语言处理任务、象棋谜题任务和ChatGPT奖励建模任务。每个子图展示了以下内容:
- 横轴表示强学生模型的计算资源占比(相对于GPT-4)。纵轴表示测试集准确率(%)。
- 彩色线条表示在不同弱监督者规模下,强学生模型经过微调后的性能。线条的颜色表示弱监督者的计算资源占比。
- 黑色虚线表示强学生模型在地面真实标签上微调的性能。
- 彩色点线表示强学生模型在弱监督下的性能与弱监督者之间的性能差距恢复率(PGR)。
通过这个图,我们可以看到:
- 在自然语言处理任务中,强学生模型的PGR随着弱监督者和强学生模型规模的增加而增加。在最大的学生模型中,PGR通常在50%以上。
- 在象棋谜题任务中,PGR对弱监督者规模较为敏感,对强学生规模则呈下降趋势。较小的监督者-学生差距可以获得较高的PGR。
- 在ChatGPT奖励建模任务中,简单微调的弱到强泛化效果较差,PGR通常低于20%。
这个图揭示了在不同任务和模型规模下,弱到强泛化现象的存在以及性能差距恢复率的变化。这为后续研究提供了一个基准。
Q11:4.3小节, IMPROVING WEAK-TO-STRONG GENERALIZATION IS TRACTABLE介,绍了哪些方面的内容
在第四章的4.3小节中,论文介绍了一些简单的方法来改善弱到强泛化的性能。主要内容包括:
- 自举法(Bootstrapping):通过多步弱到强学习,逐步缩小监督者和学生之间的差距。在象棋谜题任务中,自举法可以显著提高性能差距恢复率(PGR),尤其是对于较大的学生模型。
- 辅助置信损失(Auxiliary Confidence Loss):在自然语言处理任务中,添加一个鼓励强模型对其预测具有较高置信度的辅助损失,可以大幅提高PGR,特别是对于较大的监督者-学生差距。这表明避免模仿弱监督的错误是一个有效的直觉。
- 无监督微调(Unsupervised Generative Finetuning):在奖励建模任务中,对强学生模型进行额外的无监督微调可以提高PGR约10-20%。这表明通过增加任务相关性来提高泛化能力是一个有前途的方向。
这些方法在不同任务上取得了一定程度的改善,证明了弱到强泛化的性能是可塑的。然而,它们并未在所有任务上都表现出一致的效果,特别是在奖励建模任务中。这表明现有的方法仍有局限性,需要进一步研究。
Q12:第五章都介绍了哪些内容
第五章主要介绍了弱到强的概括问题,包括以下内容:
- 弱到强的概括现象:作者发现,即使在只有弱监督的情况下,强大的模型也能够学习到更多的知识和技能,这种现象被称为弱到强的概括。
- 理解模仿:作者研究了模型在学习过程中是否会过度模仿弱监督的错误,发现在某些情况下,模型确实会过度模仿,但这种情况可以通过一些方法来改善。
- 任务显著性:作者研究了任务在模型中的显著性对弱到强的概括的影响,发现如果任务在模型中具有较高的显著性,那么弱到强的概括效果会更好。
- 弱到强的概括方法:作者提出了一些可以改善弱到强的概括效果的方法,如使用辅助置信度损失函数、进行引导学习等。
- 弱到强的概括与任务表现的关系:作者发现,弱到强的概括效果与任务的表现有关,对于一些任务,弱到强的概括效果较好,而对于另一些任务,效果则较差。
- 弱到强的概括与模型大小的关系:作者发现,模型的大小也会影响弱到强的概括效果,一般来说,模型越大,弱到强的概括效果越好。
- 弱到强的概括与训练数据的关系:作者还研究了训练数据对弱到强的概括的影响,发现如果训练数据与测试数据的分布一致,那么弱到强的概括效果会更好。
总的来说,第五章主要探讨了弱到强的概括问题,并从多个角度进行了深入的分析和讨论。
Q13:第六章,DISCUSSION,都有哪些内容
第六章是关于讨论的部分,主要内容包括:
- 弱到强的概括问题的重要性:作者强调了弱到强的概括问题在实现人工智能对齐中的重要性。随着人工智能的发展,未来可能会出现超越人类智能的模型,人类将无法对其进行有效的监督。因此,研究如何让强大的模型从弱监督中学习到更多的知识和技能,对于实现人工智能的安全和对齐具有重要意义。
- 弱到强的概括问题的挑战:作者指出,弱到强的概括问题存在多个挑战,包括模型可能会过度模仿弱监督的错误,以及弱监督的标签可能存在噪声等问题。此外,如何构建一个与未来超人类智能模型对齐问题的类似环境,也是一个重要的挑战。
- 未来工作的方向:作者提出了未来研究的几个方向,包括构建更接近未来超人类智能模型对齐问题的实验环境,发现更多的弱到强概括现象,以及研究如何提高弱到强概括的效果等。
- 对于未来人工智能对齐的建议:作者建议,未来的人工智能对齐研究应该关注弱到强概括问题,并且应该开发出能够从弱监督中学习到更多知识和技能的方法。此外,作者还建议,应该对弱到强概括问题进行更多的理论研究,以提高我们对其的理解。
总的来说,第六章主要是对弱到强的概括问题的讨论,包括其重要性、挑战以及未来的研究方向等。
OpenAI Blog 链接🔗:https://openai.com/research/weak-to-strong-generalization
论文原文链接🔗:https://cdn.openai.com/papers/weak-to-strong-generalization.pdf
我是大林,坐标北京
NLP高级算法工程师,主要从事自然语言处理(NLP)、知识图谱、大模型领域的实际业务落地。持续关注AIGC趋势发展、AI 开源项目 3.7k+ stars,AIGC知识库浏览 2w 次,维护 AIGC 社群 4k+人,All IN AI。
加我微信(dalinvip2023),备注【公众号AIGC】,进 AIGC 交流群一起交流(还有数字人、绘画、技术、AI变现多方向。)