从S3中导入数据到Dynamodb
文件内部结构会在
Verify
Data Export File 中描述。- The destination table 已经存在。 (导入任务不会为你创建表)
- The destination table 与 source table 有相同的名称。
- The destination table 与 source table 有相同的结构。
- 登陆AWS管理控制台,然后打开dynamodb控制台: https://console.aws.amazon.com/dynamodb/.
- (可选) 如果你想做块区域导入,点击右上角的Select a Region 然后选择要导入的表的区域。控制台会显示该区域下的所有表。如果destination table不存在的话,你需要先创建它。
- 在 Amazon DynamoDB Tables 页面, 点击 Export/Import.
- 在 Export/Import 页面,选择一个你要导入的表,然后点击 Import into DynamoDB.
- 在 Create Import Table Data Pipeline 页面,按下面步骤操作:
-
- S3 Input Folder 文本框中输入导入文件对应的 Amazon S3 URI。例如:
s3://mybucket/exports
这个URI的规则应该是这样s3://
:bucketname
/folder
-
bucketname
是S3中bucket的名称folder
表示存放要导入的文件的名称
- 导入任务会通过指定的S3位置找到对应的文件。
文件内部结构会在
Verify Data Export File 中描述。 - 在 S3 Log Folder 文本框中输入一个S3 URI,导出过程的日志将被存储在相应的folder中。例如:
s3://mybucket/logs/
S3 Log Folder URI的格式和 S3 Output Folder的格式相同。 - 在 Throughput Rate 文本框中可选择一个百分比。这个比率表示在导出过程中会消耗读吞吐量的上限。例如,假设你要导出的表的读吞吐量是20,同时你设置的百分比是40%。那么导出时所消耗的吞吐量将不会超过8.
如果你在导出多个表,这个 Throughput Rate 将会被应用到每个表中。 - Execution Timeout 文本框,输入导出任务的超时时长。如果导出任务在这个时长内还没执行完成,此任务会失败。
- Send notifications to 文本框,输入一个email地址。在 pipeline被创建后,你将会收到一封email邀请订阅Amazon SNS;如果你接受了此邀请,在每次执行导出操作时你都将会收到email通知。
- Data Pipeline Role, 选择 DataPipelineDefaultRole.
- Resource Role, 选择 DataPipelineDefaultResourceRole
- S3 Input Folder 文本框中输入导入文件对应的 Amazon S3 URI。例如:
- 确认好以上设置然后点击 Create Export Pipeline.
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。