我们在前面使用了图形化介面,点一点就建立好我们 Azure Machine Learning(下称 AML) 的 Datastore。今天我们就来使用 SDK 建立 Datastore 吧!
from azureml.core import Workspace
ws = Workspace.from_config()
get_default_datastore()
来列出预设的 Datastore。datastore = ws.get_default_datastore()
或是使用 ws.datastores
,可以印出里面已经有的 Datastore。
我们在第三天的时候,有为了 Datastore 建立好一个 Blob,我们就用那个 Blob 来建立一个 Datastore 吧!要建立从 Blob 建立一个 Datastore,我们要用 Datastore.register_azure_blob_container()
。注意到这里要 import Datastore 哦!
from azureml.core import Datastore
Datastore.register_azure_blob_container(
workspace=ws,
datastore_name='<datastore-name>', #你要的 Datastore 名称,这里我取名叫做 datastore_sdk
container_name='<container-name>', #你 blob 里的 container 名称
account_name='<account-name>', #你 storage account 的名称
account_key='<account-key>', #你的 Access key,忘记这是什麽的话请去看 Day04
)
建立 Datastore 後,我们进到 Workspace 的图形化介面看一下,是不是真的已经建立成功了。如下图。
当然也可以透过 SDK 去印出来,看看刚刚的 Datastore 是否已经建立。我们使用 ws.datastores.get("您的datastore名称")
,就会看到印出下面那个 JSON,就是代表你已经建成功啦!
{
"name": "datastore_sdk",
"container_name": "ironmandatablob",
"account_name": "ironmandata",
"protocol": "https",
"endpoint": "core.windows.net"
}
ws.datastores['您的datastore名称']
,也可以印出和上面一样的东西。datastore = ws.datastores.get("datastore_sdk")
datastore.download(
"./", # 你本地端的资料夹
prefix='titanic.csv', # Datastore 里的档案路径
overwrite=False, # 是否要 overwrite
)
datastore = ws.datastores.get("datastore_sdk")
datastore.upload_files(
"./titanic.csv", # 你本地端的档案,也可以是一个 List[str]
target_path='titanic.csv', # Datastore 里的档案路径
overwrite=False, # 是否要 overwrite
)
以上就是今天 Datastore 的建立啦!是不是真的很容易呢?用 SDK 来操作其实不难对吧!
明天我们就用今天建立的 Datastore,来建立 Dataset 啦!
(*Source Article - What is Model-View-Controller (...
两等号与三等号( == 与 === )的差别 在 JavaScript 里一个等号 = 代表的意思是...
主体资料 (Body) 在传输资料时经常会使用到主体资料,比如说:POST、PUT、PATCH等操作...
专案前置准备 新建好资料库以及资料表 create table NewsType ( NewsTyp...
再来说说templates 先修改在noob1 中的setting.py,找到TEMPLATES,修...