如果您对BTP感兴趣,BTP个人精选内容目录 | SAP Blogs 可能有更多你需要的内容
SAP Databricks是什么?
是一个由SAP管理的Databricks特别版,作为BDC的核心组件直接嵌入其中。它利用Apache Spark进行大规模数据处理,无缝集成数据工程、机器学习和商业智能功能,让您能够将来自任何来源的结构化/非结构化/半结构化数据结合使用。
与原生Databricks的主要区别在于:SAP Databricks是一个SAP定制版,SAP管理数据存储,Databricks提供计算资源和计算功能,二者天然集成。
SAP将Databricks能力纳入BDC中的目的是什么?
为传统数据处理能力做补充,提供大数据处理能力,显著增强BDC的分析能力,为客户提供领先的AI/ML功能。
体现了其对开放数据生态系统的承诺。这种集成实现了BDC和Databricks之间数据产品的无缝、零拷贝、双向共享
在BDC中,SAP Databricks通过行业标准的Delta Share协议工作。BDC中的数据可以被SAP Databricks使用,无需复制到SAP Databricks中。
SAP Databricks可以用来干什么?
如果没有SAP Databricks, SAP数据都需要复杂的配置才可以接入第三方大数据平台,并且还需要由用户自行保证增量同步,语义不丢失等效果。
SAP Databricks核心功能包括:
人工智能/机器学习:支持完整的机器学习生命周期,从实验到生产,包括生成式AI和大语言模型数据科学:基于无服务器计算的统一数据科学协作环境,集成IDE和内置可视化工具数据工程:数据管道、可观测性和监控功能数据治理:通过SAP Databricks Unity Catalog对结构化和非结构化数据、机器学习模型、笔记本、仪表板和文件进行治理
SAP Databricks核心组件包括:
Delta Lake:开放数据湖仓基础Unity Catalog:统一安全、治理和编目Databricks Notebook:数据科学、AI和实时分析Apache Spark:具有并行处理能力的数据处理和分析MLflow:机器学习生命周期管理
数据流向遵循零拷贝共享原则,通过Delta Share协议在SAP BDC和Databricks之间实现双向数据产品共享,无需物理复制数据。
典型使用场景:
自动化预测:使用预置算法构建时间序列预测模型LLM微调:使用您自己的数据微调基础模型,优化性能和效果探索性数据分析:使用笔记本在多语言工作界面中协作,进行数据科学、可视化、特征工程和ML模型开发
SAP Databricks和市面上常见的类似功能有什么区别?
在数据获取层面: SAP Databricks可以合规的,零拷贝的,仅配置即可接入SAP数据
在运维管理层面: SAP Databricks结合BDC提供了完整的全套托管数据栈,无需担心不同系统间的身份,安全,协作问题
在成本结构层面:SAP Databricks基于BDC容量单元计费,用户可以灵活选择BDC容量单位的使用方式,可以用在数据集成,存储,建模,以及SAP Databricks等多个方面
SAP Databricks该怎么用呢?
实施流程概览
准备阶段:在SAP for Me中即时配置SAP Databricks,自动集成单点登录和安全性
配置步骤:在BDC控制台激活并与SAP Databricks共享运营资金数据产品
数据处理:转换数据产品使其适合ML,使用AutoML进行现金流预测
结果验证:暴露模型服务供应用消费
优化调整:将推理结果共享回SAP Business Data Cloud用于规划和分析用例
关于本文内容有任何问题或见解,欢迎在评论区留下你的想法,如果时间紧迫,也可以直接联系到我 arthuryang1996@foxmail.com,感谢你的时间
如果您对BTP感兴趣,BTP个人精选内容目录 | SAP Blogs 可能有更多你需要的内容 SAP Databricks是什么?是一个由SAP管理的Databricks特别版,作为BDC的核心组件直接嵌入其中。它利用Apache Spark进行大规模数据处理,无缝集成数据工程、机器学习和商业智能功能,让您能够将来自任何来源的结构化/非结构化/半结构化数据结合使用。与原生Databricks的主要区别在于:SAP Databricks是一个SAP定制版,SAP管理数据存储,Databricks提供计算资源和计算功能,二者天然集成。 SAP将Databricks能力纳入BDC中的目的是什么?为传统数据处理能力做补充,提供大数据处理能力,显著增强BDC的分析能力,为客户提供领先的AI/ML功能。体现了其对开放数据生态系统的承诺。这种集成实现了BDC和Databricks之间数据产品的无缝、零拷贝、双向共享在BDC中,SAP Databricks通过行业标准的Delta Share协议工作。BDC中的数据可以被SAP Databricks使用,无需复制到SAP Databricks中。 SAP Databricks可以用来干什么?如果没有SAP Databricks, SAP数据都需要复杂的配置才可以接入第三方大数据平台,并且还需要由用户自行保证增量同步,语义不丢失等效果。SAP Databricks核心功能包括:人工智能/机器学习:支持完整的机器学习生命周期,从实验到生产,包括生成式AI和大语言模型数据科学:基于无服务器计算的统一数据科学协作环境,集成IDE和内置可视化工具数据工程:数据管道、可观测性和监控功能数据治理:通过SAP Databricks Unity Catalog对结构化和非结构化数据、机器学习模型、笔记本、仪表板和文件进行治理SAP Databricks核心组件包括:Delta Lake:开放数据湖仓基础Unity Catalog:统一安全、治理和编目Databricks Notebook:数据科学、AI和实时分析Apache Spark:具有并行处理能力的数据处理和分析MLflow:机器学习生命周期管理数据流向遵循零拷贝共享原则,通过Delta Share协议在SAP BDC和Databricks之间实现双向数据产品共享,无需物理复制数据。典型使用场景:自动化预测:使用预置算法构建时间序列预测模型LLM微调:使用您自己的数据微调基础模型,优化性能和效果探索性数据分析:使用笔记本在多语言工作界面中协作,进行数据科学、可视化、特征工程和ML模型开发 SAP Databricks和市面上常见的类似功能有什么区别?在数据获取层面: SAP Databricks可以合规的,零拷贝的,仅配置即可接入SAP数据在运维管理层面: SAP Databricks结合BDC提供了完整的全套托管数据栈,无需担心不同系统间的身份,安全,协作问题在成本结构层面:SAP Databricks基于BDC容量单元计费,用户可以灵活选择BDC容量单位的使用方式,可以用在数据集成,存储,建模,以及SAP Databricks等多个方面 SAP Databricks该怎么用呢?实施流程概览准备阶段:在SAP for Me中即时配置SAP Databricks,自动集成单点登录和安全性配置步骤:在BDC控制台激活并与SAP Databricks共享运营资金数据产品数据处理:转换数据产品使其适合ML,使用AutoML进行现金流预测结果验证:暴露模型服务供应用消费优化调整:将推理结果共享回SAP Business Data Cloud用于规划和分析用例 关于本文内容有任何问题或见解,欢迎在评论区留下你的想法,如果时间紧迫,也可以直接联系到我 arthuryang1996@foxmail.com,感谢你的时间 Read More Technology Blog Posts by SAP articles
#SAP
#SAPTechnologyblog