所有文章 > 当前标签:LLM

【LLM落地应用实战】LLM + TextIn文档解析技术实测
2025/03/12
本文探讨了LLM与TextIn文档解析技术的结合应用,分析了现有大模型在文档解析中的挑战,如图像处理、版面分析、内容识别和语义理解的难题。TextIn通过其强大的技术实力,提供了精准的文档解析解决方案,使文档信息能够快速、准确地转化为计算机可处理的格式,并与LLM结合进行深层次的内容分析和任务处理。通过TextIn和LLM的结合,可以实现对复杂文档的高效解析和信息提取,提升文档处理能力。

TensorRT-LLM 在 PyPi 上的安装与配置指南
【日积月累】
本文介绍了如何通过 PyPi 安装和配置 TensorRT-LLM,以提升大规模语言模型的推理性能。TensorRT-LLM 是一个高效的推理框架,支持多种量化技术如 FP16 和 INT8,能够显著降低推理延迟和提高吞吐量。安装前需确保系统满足基本要求,如 CUDA 版本为 12.2 或更高,并推荐使用特定的 PyTorch 镜像。在 Docker 环境中,通过 PyPi 安装相关 Python 包及 TensorRT,配置环境变量后进行模型构建和推理。
2025/02/06

LLM产品经理的角色与机遇
【日积月累】
LLM产品经理在现代科技和商业领域中扮演着重要角色,负责大型语言模型的产品开发与管理。他们需要结合LLM技术与市场需求,制定产品策略,具备技术背景和商业敏锐度。核心职责包括需求分析、项目管理、技术沟通和市场推广。LLM产品经理面临技术复杂性和市场不确定性等挑战,通过不断学习和创新,他们能够在医疗、金融等新兴领域探索更多机遇,推动产品和行业发展。
2025/02/01

从零开始创建自己的llm:深入探索与实践指南
【日积月累】
从GPT-3到BERT,这些模型在文本生成、翻译、问答等任务中展现了强大的能力。然而,大多数开发者依赖于预训练模型,缺乏对LLM底层原理和实现细节的深入理解。本文旨在引导读者从零开始创建自己的LLM,涵盖从理论基础到实际操作的完整流程,帮助开发者深入掌握LLM的核心技术。
2025/01/16

大语言模型技术是什么?
【日积月累】
本文聚焦大语言模型技术 Large Language Model,简称LLM,详述其基于深度学习利用海量文本经预训练与微调掌握语言规律的原理,介绍 Transformer 架构及训练机制;梳理从萌芽至爆发增长各阶段历程;展现内容创作、客服、开发等多领域应用;剖析数据、可解释性、伦理等挑战;展望架构、效率、应用拓展及协同发展趋势,全面解读该技术现状与未来走向
2025/01/09