Boto3を使用して、AWSGlueに存在するすべてのテーブルをページ分割する方法
問題の説明: boto3を使用してください アカウントで作成されたAWSGlueデータカタログのすべてのテーブルをページ分割するPythonのライブラリ
この問題を解決するためのアプローチ/アルゴリズム
-
ステップ1: boto3をインポートします およびbotocore 例外を処理するための例外。
-
ステップ2: max_items 、 page_size およびstarting_token この関数のオプションのパラメータですが、database_nameは必須です。
-
max_items 返されるレコードの総数を示します。利用可能なレコードの数>max_items 、次に NextToken ページネーションを再開するための応答で提供されます。
-
page_size 各ページのサイズを示します。
-
starting_token ページ付けに役立ち、 NextTokenを使用します 以前の回答から。
-
-
ステップ3: boto3 libを使用してAWSセッションを作成します 。 region_nameを確認してください デフォルトのプロファイルに記載されています。言及されていない場合は、 region_nameを明示的に渡します セッションの作成中。
-
ステップ4: 接着剤用のAWSクライアントを作成します。
-
ステップ5: ページネーターを作成する get_tablesを使用するすべてのテーブルの詳細を含むオブジェクト
-
ステップ5: paginateに電話する 関数を実行し、 database_nameを渡します DatabaseNameとして、 max_items 、 page_size およびstarting_token PaginationConfigとして
-
ステップ6: max_sizeに基づいてレコード数を返します およびpage_size 。
-
ステップ7: ページ付け中に問題が発生した場合は、一般的な例外を処理します。
サンプルコード
次のコードを使用して、ユーザーアカウントで作成されたすべてのテーブルをページ分割します-
import boto3 from botocore.exceptions import ClientError def paginate_through_tables(database_name, max_items=None:int,page_size=None:int, starting_token=None:string): session = boto3.session.Session() glue_client = session.client('glue') try: paginator = glue_client.get_paginator('get_tables') response = paginator.paginate(DatabaseName=database_name, PaginationConfig={ 'MaxItems':max_items, 'PageSize':page_size, 'StartingToken':starting_token} ) return response except ClientError as e: raise Exception("boto3 client error in paginate_through_tables: " + e.__str__()) except Exception as e: raise Exception("Unexpected error in paginate_through_tables: " + e.__str__()) a = paginate_through_tables("test_db",2,5) print(*a)
出力
{'TableList': [ {'Name': 'temp_table', 'DatabaseName': 'test_db', 'Owner': 'abc', 'CreateTime': datetime.datetime(2020, 9, 10, 20, 44, 29, tzinfo=tzlocal()), 'UpdateTime': datetime.datetime(2020, 9, 10, 20, 44, 29, tzinfo=tzlocal()), 'LastAccessTime': datetime.datetime(1970, 1, 1, 5, 30, tzinfo=tzlocal()), 'Retention': 0, 'StorageDescriptor': {'Columns': [{'Name': 'keyname', 'Type': 'string', 'Comment': ''}, {'Name': 'amount', 'Type': 'string', 'Comment': ''}, {'Name': 'effectivedate', 'Type': 'string', 'Comment': ''}, {'Name': 'clientname', 'Type': 'string', 'Comment': ''}, {'Name': 'accoutname', 'Type': 'varchar(5)', 'Comment': ''}, {'Name': 'clientid', 'Type': 'varchar(6)', 'Comment': ''}], 'Location': 's3://test/', 'InputFormat': 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat', 'OutputFormat': 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat', 'Compressed': False, 'NumberOfBuckets': 0, 'SerdeInfo': {'Name': 'test', 'SerializationLibrary': 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe', 'Parameters': {}}, 'BucketColumns': [], 'SortColumns': [], 'Parameters': {}, 'StoredAsSubDirectories': False}, 'PartitionKeys': [], 'ViewOriginalText': '', 'ViewExpandedText': '', 'TableType': 'EXTERNAL_TABLE', 'Parameters': {'EXTERNAL': 'TRUE', 'has_encrypted_data': 'false', 'parquet.compression': 'SNAPPY'}, 'CreatedBy': 'arn:aws:sts::782258485841:assumed-role/IVZ-ADFS-NorthBayLead/[email protected]'}, {'Name': 'test_3', 'DatabaseName': 'test_db', 'Owner': 'abc', 'CreateTime': datetime.datetime(2020, 9, 10, 21, 54, 39, tzinfo=tzlocal()), 'UpdateTime': datetime.datetime(2020, 9, 10, 21, 54, 39, tzinfo=tzlocal()), 'LastAccessTime': datetime.datetime(1970, 1, 1, 5, 30, tzinfo=tzlocal()), 'Retention': 0, 'StorageDescriptor': {'Columns': [{'Name': 'keyname', 'Type': 'string', 'Comment': ''}, {'Name': 'amount', 'Type': 'string', 'Comment': ''}, {'Name': 'effectivedate', 'Type': 'string', 'Comment': ''}, {'Name': 'clientname', 'Type': 'string', 'Comment': ''}, {'Name': 'accoutname', 'Type': 'varchar(5)', 'Comment': ''}, {'Name': 'clientid', 'Type': 'varchar(6)', 'Comment': ''}], 'Location': 's3://test3/', 'InputFormat': 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat', 'OutputFormat': 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat', 'Compressed': False, 'NumberOfBuckets': 0, 'SerdeInfo': {'Name': test_3', 'SerializationLibrary': 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe', 'Parameters': {}}, 'BucketColumns': [], 'SortColumns': [], 'Parameters': {}, 'StoredAsSubDirectories': False}, 'PartitionKeys': [], 'ViewOriginalText': '', 'ViewExpandedText': '', 'TableType': 'EXTERNAL_TABLE', 'CreatedBy': 'arn:aws:sts::***********:assumed-role/abc'}], 'ResponseMetadata': {'RequestId': 'dd35e6c5-*********************1', 'HTTPStatusCode': 200, 'HTTPHeaders': {'date': 'Fri, 02 Apr 2021 13:42:48 GMT', 'content-type': 'application/x-amz-json-1.1', 'content-length': '10301', 'connection': 'keep-alive', 'x-amzn-requestid': *******************}, 'RetryAttempts': 0}}
-
Boto3を使用して、AWS Glue Dataカタログで利用可能なすべての分類子の詳細を取得するにはどうすればよいですか?
問題の説明:Pythonでboto3ライブラリを使用して、AWSGlueDataカタログに存在するすべての分類子の詳細を取得します。たとえば、ユーザーのアカウントからすべての分類子の詳細を取得します。 この問題を解決するためのアプローチ/アルゴリズム ステップ1 −例外を処理するためにboto3およびbotocore例外をインポートします。 ステップ2 −パラメータはありません。 ステップ3 −boto3ライブラリを使用してAWSセッションを作成します。 region_nameがデフォルトのプロファイルに記載されていることを確認してください。言及されていない場合は、セッションの作成時にr
-
Boto3を使用してAWSGlueから接着剤ジョブを削除するにはどうすればよいですか?
問題の説明 − Pythonでboto3ライブラリを使用して、アカウントで作成された接着剤ジョブを削除します。 例 −アカウントで作成された接着剤ジョブ「transfer_from_s3」を削除します。 この問題を解決するためのアプローチ/アルゴリズム ステップ1 −例外を処理するためにboto3およびbotocore例外をインポートします。 ステップ2 −AWSGlueカタログから削除する必要があるパラメータjob_nameを渡します。 ステップ3 −boto3ライブラリを使用してAWSセッションを作成します。 region_nameがデフォルトのプロファイルに記載されていることを確