
AI百科
-
深度学习
深度学习是一种机器学习的方法,它模仿人类大脑的神经网络结构,通过多层次的神经元来处理和学习数据。深度学习的核心是通过大量的数据和计算能力来训练神经网络,使其能够自动地从数据中提取特征和模式,并进行分类、识别、预测等任务。 深度学习的主要特点是具有多层次的神经网络结构,每一层都可以自动地从前一层中提取更高级别的特征,从而实现更加准确的分类和预测。深度学习的应用…
-
具身智能(Embodied Intelligence)
具身智能(Embodied Intelligence)是指智能体通过与环境的互动和身体的运动来实现智能表现和学习的能力。这种智能强调了智能不仅仅是基于大脑内部的计算和思考,而是通过身体与环境的相互作用来实现。 具身智能的机器人可以通过感知、运动和学习来与环境进行交互。感知包括通过传感器获取环境信息,如视觉、听觉、触觉等。运动包括通过执行动作来影响环境,如移动…
-
一次性说清UGC、PGC、PUGC、OGC、MGC、BGC、AGC、GGC、MCNGC、CGC、AIGC
对于我们常见的内容平台,比如微博,小红书,b站,抖音,快手,你看到的是一篇一篇内容,其实背后的创作者是分很多种类型的,下面一一解读下。(分为创作者类型,优势,劣势维度) UGC:普通用户创作。就是普通的你和我。优势是可以鼓励很多人来创作,数量大,基数大,甚至你在家都可以随时拍一张阿猫阿狗。劣势是质量差,干货少,爆款可能性低,创作频次低,偶尔创作,找到合适的内…
-
科学家打造全能M4机器人:能走、能飞、能游泳
大部分机器人只具备滚动、飞行、行走或者游泳等单项技能,加州理工学院自治系统和技术中心(CAST)现在打造了一款全能机器人,可以具备上述所有技能。 这款机器人的全称叫做 Multi-Modal Mobility Morphobot,官方简称为 M4 机器人,可以驾驭各种地形,能飞、能走、能游泳。 CAST 表示 M4 并非首台支持多种运动模式的机器人,但亮点在…
-
AIGC的发展历程
AIGC即AI Generated Content,利用人工智能技术来生成内容,是继UGC、PGC之后的新型内容生产方式,AI写作、AI绘画、AI作曲、AI剪辑、AI动画、AI交互等都属于AIGC的分支。 结合人工智能的演进沿革,AIGC的发展历程大致可以分为三个阶段: 早期萌芽阶段(1950s-1990s),受限于当时的科技水平,AIGC仅限于小范围实验。…
-
认识AIGC(人工智能生成内容):入门到精通
AI生成内容(AIGC,人工智能生成内容)是一种新型的内容创作方式,它继承了专业生产内容(PGC,Professional-generated Content)和用户生成内容(UGC,User-generated Content)的优点,并充分发挥技术优势,打造了全新的数字内容生成与交互形态。随着科技的不断发展,AI写作、AI配乐、AI视频生成、AI语音合成…
-
ChatBA: 人工智能自动生成PPT的AI工具
ChatBA是一个使用AI自动生成PPT幻灯片的工具,它可以帮助你快速和轻松地制作漂亮的PPT模板。你只需要输入一些文字描述,它就会根据你的内容和上下文,自动创建匹配的幻灯片。你还可以选择不同的模板和布局来定制幻灯片的外观。官网地址:https://www.chatba.com/ ChatBA使用了GPT技术来理解和生成文字,还使用了DALL·E 2技术来创…
-
AGI通用人工智能
AGI通用人工智能的研究目标是寻求统一的理论框架来解释各种智能现象,并研发具有高效的学习和泛化能力、能够根据所处的复杂动态环境自主产生并完成任务的通用人工智能体,使其具备自主的感知、认知、决策、学习、执行和社会协作等能力,且符合人类情感、伦理与道德观念。
-
大语言模型(LLM)
大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。
-
ViT
Vision Transformer ,视觉变换器。一种利用 Transformer 解决计算机视觉问题的模型
-
BERT
Bidirectional Encoder Representations from Transformers ,变换器的双向编码器表示。一种谷歌基于 Transformer 提出的模型
-
RLHF
Reinforcement Learning from Human Feedback ,从人类反馈中进行强化学习。利用人类反馈信号优化模型的强化学习方法
-
ChatGPT
OpenAI 在2022年11月发布的聊天机器人,能自然流畅地与人们对话
-
GPT
Generative Pre – trained Transformer ,生成型预训练变换器。由 OpenAI 研发的大型文本生成类深度学习模型,可以用于对话 AI 、机器翻译、摘要生成、代码生成等复杂的自然语言处理任务
-
Transformer
一种运用注意力机制的深度学习模型,是许多大模型的基础
-
注意力机制
由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息,这种机制可以应用于人工智能的算法模型领域
-
Seq2Seq
Sequence – to – Sequence ,序列到序列模型。将一种序列处理成另一种序列的模型,典型应用场景是机器翻译
-
CLIP
Contrastive Language-Image Pre-Training ,文本﹣图像预训练。一种用于匹配图像和文本的预训练神经网络模型
-
Diffusion
扩散模型。一种通过对数据点在潜在空间中扩散的方式进行建模来学习数据集潜在结构的算法模型,常用于图像生成
-
GAN
Generative Adversarial Networks ,生成对抗网络。通过一个生成器和一个判别器的相互对抗,来实现图像或文本等信息生成过程的算法模型