基础架构部文档
基础架构部文件格式标准参考
技术文档
mr_doc 接入ucenter 认证登录
loki日志收集
https证书与ssl/tls 加密
FTP 主动模式和被动模式的区别
Hadoop-windows10安装部署Hadoop2.7.3
JKS和PFX证书文件格式相互转换方法
KVM 基础操作
k8s nginx ingress日志收集到ELK并分析
Django基础
clash http代理 socks代理服务器搭建 配置
Ubuntu 22.04 安装 FFmpeg v7.0
Office正版化项目的个人体验和心得
重置jenkins构建历史
K8S实施方案
k8s的yaml文件语法
Docker的优势与虚拟机的区别
问题处理文档
HR推送数据问题处理报
Nginx从入门到放弃01-nginx基础安装
Nginx从入门到放弃02-Nginx基本命令和新建WEB站点
Nginx从入门到放弃03-Nginx调优
Nginx从入门到放弃04-Nginx的N种特别实用示例
JMeter教程
01-mariadb编译安装
02-mariadb二进制安装
Docker修改默认的存储路径
01-influxdb2时序数据库简介及安装
02-influxdb2时序数据库核心概念
03-influxdb2时序数据库flux查询语言
04-influxdb2--Python客户端influxdb-client
05-Spring boot 集成influxdb2
06-influxdb2其他知识
OA添加waf后相关问题的解决过程
排除java应用cpu使用率过高
exsi迁移文档
视频测试
阿里云产品试题
超融合服务器和传统服务器的区别
Serv-U问题集锦
文件夹共享操作手册
磁盘脱机处理方案
Office内存或磁盘空间不足处理方法
Cmd中ping不是内部或外部命令的解决方法
ELK 搭建文档
限制用户的远程桌面会话数量
Docker快速安装rocketmq、redis、zookeeper
超融合建设方案
git 入门
HR系统写入ES数据报错403
ELK搭建文档
KVM 安装和基础使用文档
helm 安装 rancher
访问共享提示禁用当前用户解决方法
K8S StorageClass搭建
KVM 扩展磁盘
借助sasl构建基于AD用户验证的SVN服务器
fastdfs编译安装并迁移数据
关闭系统保护的必要性
SCF 前置机部署
阿里云OSS学习文档
阿里云学习文档-VPC
(k8s踩坑)namespace无法删除
rancher-helm安装
zookeeper集群安装
批量替换K8s secrets 中某个特定域名的tls证书
kibana 批量创建索引模式
centos7 恢复Yum使用
ACP云计算部分知识点总结
Loki 日志系统搭建文档
自动更新k8s集群中所有名称空间中特定证书
AI分享
(AI)函数调用与MCP调用的区别
安装戴尔DELL Optilex 7040 USB驱动时提示无法定位程序输入点 kernel32\.dll
新华三服务器EXSI 显卡直通
本文档使用「觅思文档专业版」发布
-
+
首页
AI分享
AI分享 分享人:杨超 什么是AI AI是研究如何让机器像人类一样智能地执行任务的科学与技术。 无论AI是以何种形式出现,它的最终目的一定是将人从无意义的工作中解放。 什么是生成式AI 生成式AI(Generative AI)是一类能够自主创造新内容的人工智能技术,其核心是通过学习数据中的潜在规律,生成与训练数据相似但非重复的文本、图像、音频、视频甚至代码等。它不仅是简单的“模仿”,而是通过理解数据的本质特征实现创造性输出。 生成式AI的技术路线 我们使用最多的就是自回归预测路线的大语言模型(LLM)。 LLM 什么是LLM 大语言模型(Large Language Models, LLM)。 LLM通常基于深度学习架构(如Transformer)开发,通过捕捉自然语言中的模式和语法规则,理解上下文和语义。它们的参数规模通常在数十亿到数万亿之间,训练数据量达到TB级别以上,计算需求巨大。 相关技术简述 ● Transformer架构:由Google于2017年提出,核心特性包括自注意力机制和并行计算,能够更高效地处理长文本。 ● 知识蒸馏:是一种将复杂模型(教师模型)的"知识"迁移到轻量模型(学生模型)的技术,通过模仿教师的行为实现模型压缩与性能提升的平衡。 ● 稀疏激活:如DeepSeek采用的混合专家(MoE)架构,通过仅激活部分神经元来降低计算开销。 ● RAG(检索增强生成):结合外部知识库实时检索,提升事实准确性。 ● 多模态对齐:将文本、图像、语音统一嵌入空间,实现跨模态推理。 大模型和训练 通俗地讲,大模型是一个基于神经网络构建好的处理器,比如函数 y=F(x),它能够根据输入 x,产生相应的预测 y 或者输出内容 y。 训练就是通过输入数据并监督输出结果来不断地调节每个神经元的参数,从而最终训练出输出结果与实际偏差最小的模型。 模型中有多层神经网络,每层神经网络有很多神经元,如同多层嵌套函数,而每个神经元(每个嵌套函数)可以理解为一个函数 y=F(x),它可以通过调整参数来控制输出。 现有AI调用本质 无论是何种格式的文档、图片、视频,现在的多模态AI的基石就是LLM,它们都将被转换成相应的描述性文字,才能被现在的AI处理。 现有AI的记忆 RAG(检索增强生成)结合外部知识库实时检索,提升事实准确性。 总的来说就是向量数据库,将文本分词后,按照概率匹配知识库中的文本,最后将匹配结果与问题一起发送给AI。 AI工作流 现在的AI是极度不靠谱的,它们几乎不能完成一项完整的工作。 关于AI的展望 现有的AI局限性比较强,能够作为检索工具使用,极大提高了技术人员的检索效率,但也仅仅是工具,并非会自主学习、自主训练的完全体AI。 现在的多模态AI,本质上是多个不同领域的大模型通过 Function Calling、MCP 或多轮对话强行粘合起来的,并非在单一模型中完成。 建议: 1. 将AI当作检索和简单数据分析的工具; 2. 若想提前应用AI,需学习构建AI工作流使其主动辅助任务; 3. 若不想学习,可等待: ○ 他人开发出成熟的工作流; ○ 真正的多模态大模型问世。
杨超
2025年5月30日 14:24
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
Word文件
PDF文档
PDF文档(打印)
分享
链接
类型
密码
更新密码
有效期