CLIP

Contrastive Language-Image Pre-Training ,文本﹣图像预训练。一种用于匹配图像和文本的预训练神经网络模型

    文章内容由AI百科使用AI进行创作,转载请注明出处:https://www.aipedia.cn/archives/4343.html

    (0)
    上一篇 2023年7月7日
    下一篇 2023年7月7日

    推荐词条

    • 生成式类人工智能算法

      根据训练过的数据生成全新、完全原创的输出,常以人工智能以文本、音频、图像、视频等形式创建新内容

      2023年7月6日
      84
    • 大模型

      Foundation Model ,又译作”基础模型”,对广泛的数据进行大规模预训大模型练来适应各种任务的模型

      2023年7月6日
      136
    • RLHF

      Reinforcement Learning from Human Feedback ,从人类反馈中进行强化学习。利用人类反馈信号优化模型的强化学习方法

      2023年7月7日
      250
    • 注意力机制

      由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息,这种机制可以应用于人工智能的算法模型领域

      2023年7月7日
      239
    • 人工神经网络

      模仿生物神经网络工作特征进行信息处理的算法模型

      2023年7月6日
      87
    关注微信