当前位置:
研究报告
AI应用端的机会发掘
来源: | 作者:君研资本 | 发布时间: 2025-02-25 | 738 次浏览 | 分享到:

图片

前言

本次研究始于2024年11月,根据transform架构下的人工智能采取发展脉络梳理,对美股软硬件龙头公司做重点摸排,了解到逻辑芯片ASIC的广阔前景,重点研究了以APPlovin公司为代表,在数据分析和广告投放领域的AI应用前景。

2025年1月,随着国内DEEPSEEK模型在成本和训练时间上的大幅突破,预计未来会有越来越多的行业运用AI模型提高企业效率。

2025年2月,泛AI应用行业重点公司业绩再超预期,无论是对美股进行潜在的映射,还是对已产生营收的重点公司和行业持续跟踪,在2025年的投资中始终是市场绕不开的话题。


一、本轮人工智能模型的发展


(一)

Transformer架构与大语言模型

2017年,Google发布论文《Attention-is-all-you-need》,提出Attention机制和基于此机制的Transformer架构。

Transformer架构是一种完全基于注意力机制的序列转换模型,而不依赖此前研究较多的三类架构:循环神经网络RNN(Recurrent-Neural-Network)、卷积神经网络CNN(Convolutional-Neural-Network)、长短期记忆LSTM(Long-Short-Term-Memory)。

2018-2023年期间,Transformer架构下的人工智能发展迅速,站在2024年回顾和展望,本轮人工智能AI浪潮预计还将会是Transformer架构下的大语言LLM模型主宰天下。

大语言模型,简称LLM,英文Large-Language-Model,是指使用大量文本数据训练的深度学习模型,使得该模型可以生成自然语言文本或理解语言文本的含义,进而进行类人脑判断甚至简单思考。

通过在庞大数据集上进行训练,来提供有关各种主题的深入知识和语言生产。其核心思想是:通过大规模的无监督训练学习自然语言的模式和结构,在一定程度上模拟人类的语言认知和生成过程。

从实际表现来看,大语言模型在拼写检查、语法修正、文本摘要等简单运算已进入大众日常生活;情感分析、对话生成、内容推荐等进阶应用也表现出色;由此发展的图、视频、声感知、光感知多模态应用更是打开想象空间。

(二)

Bert、T5、GPT三派别

根据目前论文整理,可将Transformer架构发展五年多历史分为三派。

1

将仅解码器模型称为GPT派

GPT派模型适合做确定性判断,类似进行单项选择:

通过天量算力处理文本和小说信息,充分获得概率和学习积累,最终大模型可以选择到A选项,热属于对气温38度的一种路径解释,这种解释是指向性的。