首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >我们是否可以使用Azure DevOps在Databricks上进行持续集成和交付

我们是否可以使用Azure DevOps在Databricks上进行持续集成和交付
EN

Stack Overflow用户
提问于 2020-04-06 14:34:09
回答 1查看 171关注 0票数 0

我的需求是以预定的时间间隔自动备份Databricks笔记本,并将其推送到Azure DevOps存储库。我需要从大约10个数据库工作区中获取数据,并将其推送到单个Azure DevOps存储库。有没有什么方法可以做到这一点!另外,在浏览Databricks支持文档时,我看到了下面提到的材料。可以使用一个脚本将多个工作区备份到Azure DevOps Repos中吗?

https://docs.databricks.com/dev-tools/ci-cd.html

EN

回答 1

Stack Overflow用户

发布于 2020-04-07 15:50:55

对于此问题,您可以尝试将工作簿与存储库链接,并通过以下步骤直接提交到存储库:

1.打开您的笔记本,注意屏幕右上部分的Revision history。单击Revision history以打开版本历史侧面板。

2.单击Git: Not Linked更新Git Preferences。将你的工作簿链接到Azure DevOps Repo,这应该是你的git存储库的URL,并将Git Repo中的路径设置为你希望DevOps在存储库中保存你的笔记本的位置。

详情请参考本document的Step3部分。另外,我觉得你提到的链接里的script也是可行的,你也可以试试。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/61054176

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档