全部
API服务
开放平台
博客文章
搜索结果
以下有369条结果和 "LLM"相关
1.LLM
专用API
LLM 可让你轻松获取到专门针对大型语言模型使用而进行优化后的结果。它能够提供高效且精准的服务,助力你在相关领域的运用中取得更为理想的效果,充分发挥大型语言模型的优势与潜力。
AI技术
AI大模型
2.skyflow LLM 隐私保护
专用API
在受监管的行业中安全地培训和微调 LLM
安全服务
业务安全
3.URL转换LLM服务-Jina
专用API
免费
URL 转换 LLM 服务-Jina,即 jina.ai,只需在其前面添加操作,就能够从 URL 或者网络搜索中顺利获取到对 LLM 友好的输入内容,能为相关需求提供极大的便利和高效支持,让数据的获取与处理变得轻松且快捷
开发者工具
文本工具
allganize
https://www.allganize.ai

4.allganize-领先的企业人工智能解决方案LLM推动者
是一家领先的企业级人工智能解决方案提供商,专注于大型语言模型(LLM)的启用。公司提供包括专用的本地部署LLM模型、LLM基础设施、LLM应用构建器和LLM应用市场在内的全方位服务,助力企业构建和部署自己的LLM应用,推动行业创新。
5.LLM大模型开放平台-Cohere
专用API
Cohere 提供多种先进LLM,如文本生成模型Command、快速响应的Command Light、平衡效率与准确性的Command R,Cohere模型名称还包括Rerank,提升搜索准确性。
AI技术
AI大模型
Confident AI
https://www.confident-ai.com

6.Confident AI-领先的法学硕士评估平台
Confident AI 是领先的大型语言模型(LLM)评估平台,提供自动化回归检测、性能漂移分析、优化提示模板、识别回归根本原因等服务。平台支持A/B测试、实时反馈、数据集生成和自动化LLM红队测试,以确保LLM应用的安全性和效率。
gentrace
https://gentrace.ai

7.gentrace-AI团队的LLM评估工具
Gentrace是一个为AI团队提供的LLM(大型语言模型)评估平台,专注于测试、实验、报告和追踪功能。它支持团队自动化评估,确保LLM产品和代理的可靠性,并通过前端测试环境促进团队协作,提高AI应用的质量。
Dify
https://dify.ai

8.Dify-出现、·生成式AI应用的创新引擎
Dify.ai是一个开源的大型语言模型(LLM)应用开发平台,专注于构建基于任何LLM的AI工作流和代理。
Keywords AI
https://www.keywordsai.co

9.Keywords AI-关键词人工智能
Keywords AI是一家专注于为AI初创企业提供大型语言模型(LLM)监控和开发平台的公司。主营业务包括提供统一的API接口、测试模型和提示、监控用户会话、分析性能以及优化模型。公司旨在通过其平台简化LLM应用的开发、部署和监控流程,助力开发者快速构建和优化可靠的AI产品。
LangWatch
https://langwatch.ai

10.LangWatch-监控、评估和优化您的法学硕士应用程序
LangWatch是一个专为大型语言模型(LLM)应用设计的监控、评估和优化平台。它通过科学的方法测量LLM质量,自动寻找最佳提示和模型,并提供拖放式协作功能,以提高AI团队的工作效率和质量保证。
llumo
https://llumo.ai

11.llumo-确保你的AI达到卓越
LLUMO AI 提供一站式解决方案,助力AI团队开发更快速、可靠、精确且成本效益的LLM(大型语言模型)。通过先进的提示和RAG压缩技术,优化LLM成本,减少幻觉,提升输出准确性。
Lunary
https://lunary.ai

12.Lunary-人工智能开发平台
Lunary 是一个 AI 开发者平台,专注于管理和提升大型语言模型(LLM)聊天机器人。平台提供用户聊天回放、安全合规、数据增强、智能决策等功能,支持自托管、LLM 防火墙、访问管理等安全特性,同时提供多语言理解和即时搜索等增值服务。
13.关于大模型的思考及研究热点
博客文章
本文阐述李航老师对 LLM 的一些看法,主要观点如下: ChatGPT 的突破主要在于规模带来的质变和模型调教方式的发明。 LLM 融合了实现人工智能的三条路径。LLM 的开发需要结合第三者体验和第一者体验。 LLM 能近似生成心智语言。 LLM 需要与多模态大模型结合,以产生对世界的认识。 LLM
14.LLM推理部署(二):英伟达LLM推理部署工具TensorRT-LLM
博客文章
各大公司在陆续推出和优化各自的底座大模型,不断刷新榜单,然而大模型的超大参数给生产部署带来了很大的困难,由此也带来大模型部署框架的蓬勃发展,本文将介绍英伟达(NVIDIA)在TensorRT基础上针对LLM优化所推出的推理加速引擎TensorRT-LLM(https://nvidia.githu
qwak
https://www.qwak.com

15.qwak-JFrog毫升
平台提供统一的MLOps解决方案,包括模型管理、一键式训练、大规模部署、实时监控、提示管理、LLM优化部署、复杂工作流构建和LLM请求追踪等功能,旨在简化AI/ML生命周期管理,提高团队协作效率。
搜索