大
规
模
定
制
、
加
速
、
部
署
A
I
原
生
服
务
Pleiades AI是一套完整的从大模型选型、微调与开发管理、集群化部署、服务上线与管理
的企业级LLMOps平台,致力于降低大模型开发门槛和资源消耗,推动大模型的平民化。
通过降低AI应用开发的的全生命周期综合成本,帮助客户专注于自身的商业创新。
基于选定的基础大模型,开发者可以创建并管理自己的大模型服务项目。灵活的定制化功能使开发者能够针对不同业务需求创建专属的大模型服务空间
开发者可以用自有业务数据对基础大模型进行微调,将基础大模型的能力与业务场景的特点相结合,提高模型在实际业务中的表现和准确性。同时支持开发者对模型进行精细的微调和优化,通过微调的高级参数设置,针对具体问题进行优化,精细调整模型的性能和效果
03推理 · 硬件感知优化 - 高性能、低成本、泛兼容
平台提供一系列针对不同芯片硬件(AMD、Nvidia)的优化压缩技术,可以在部署硬件上高效地释放模型性能,获得更快速、响应更迅捷的模型推理速度。实现模型推理服务的高性能、低成本、泛兼容
通过对优化后的不同硬件和模型搭配的性能和成本消耗的对比分析,了解不同硬件和模型组合的推理速度、准确性和响应时间等性能指标;比较不同配置下的硬件成本、能耗、配置规模、分布方式等。根据实际需求决策资源配置,避免不必要的资源浪费和错误的配置选择,提高资源利用率
可将基础大模型、微调模型和优化模型轻松部署为服务,在工作台内灵活调用以及测试迭代。还可以可以根据业务需求和应用场景的变化,灵活切换不同的硬件环境和资源配置,以适应业务的增长和变化
用户可以对模型服务进行全面的生命周期管理。从创建和部署到监控和维护,用户可以在一个集成的环境中管理模型服务的各个阶段。包括服务的启动和停止、版本控制、日志记录等,轻松管理、维护、拓展模型服务