Python
 Computer >> コンピューター >  >> プログラミング >> Python

Boto3を使用して単一のクローラーの詳細を取得するにはどうすればよいですか?


問題の説明 − Pythonでboto3ライブラリを使用して、クローラーの詳細を取得します。

−クローラー、crawler_for_s3_file_jobの詳細を取得します。

この問題を解決するためのアプローチ/アルゴリズム

ステップ1 −例外を処理するためにboto3およびbotocore例外をインポートします。

ステップ2 −crawler_nameは必須パラメーターです。これは文字列であるため、ユーザーは一度に1つのクローラー名のみを送信して詳細を取得できます。

ステップ3 −boto3ライブラリを使用してAWSセッションを作成します。 region_nameを確認してください デフォルトのプロファイルに記載されています。言及されていない場合は、 region_nameを明示的に渡します セッションの作成中。

ステップ4 −接着剤用のAWSクライアントを作成します。

ステップ5 −ここで、 get_crawlerを使用します 関数を実行し、 crawler_nameを渡します 。

ステップ6 −クローラーのメタデータを返します。

ステップ7 −ジョブのチェック中に問題が発生した場合は、一般的な例外を処理します。

次のコードを使用して、クローラーの詳細を取得します-

import boto3
from botocore.exceptions import ClientError

def get_one_crawler_details(crawler_name:str)
   session = boto3.session.Session()
   glue_client = session.client('glue')
   try:
      crawler_details = glue_client.get_crawler(Name= crawler_name)
      return crawler_details
   except ClientError as e:
      raise Exception("boto3 client error in get_one_crawler_details: " + e.__str__())
   except Exception as e:
      raise Exception("Unexpected error in get_one_crawler_details: " + e.__str__())
print(get_one_crawler_details("crawler_for_s3_file_job"))

出力

{'Crawler': {'Name': 'crawler_for_s3_file_job', 'Role': 'glue-role',
'Targets': {'S3Targets': [{'Path': 's3://test/', 'Exclusions': []}],
'JdbcTargets': [], 'DynamoDBTargets': [], 'CatalogTargets': []},
'DatabaseName': 'default', 'Classifiers': [], 'SchemaChangePolicy':
{'UpdateBehavior': 'UPDATE_IN_DATABASE', 'DeleteBehavior':
'DEPRECATE_IN_DATABASE'}, 'State': 'READY', 'TablePrefix': 'prod_scdk_',
'CrawlElapsedTime': 0, 'CreationTime': datetime.datetime(2018, 9, 24,
20, 42, 7, tzinfo=tzlocal()), 'LastUpdated': datetime.datetime(2020, 4,
27, 14, 49, 12, tzinfo=tzlocal()), 'LastCrawl': {'Status': 'SUCCEEDED',
'LogGroup': '/aws-glue/crawlers', 'LogStream':
'crawler_for_s3_file_job', 'MessagePrefix': ************-90ad1',
'StartTime': datetime.datetime(2020, 4, 27, 14, 49, 19,
tzinfo=tzlocal())}, 'Version': 15}, 'ResponseMetadata': {'RequestId':
'8c7dcbde-***********************-774', 'HTTPStatusCode': 200,
'HTTPHeaders': {'date': 'Sun, 28 Feb 2021 11:34:32 GMT', 'content-type':
'application/x-amz-json-1.1', 'content-length': '805', 'connection':
'keep-alive', 'x-amzn-requestid': '8c7dcbde-**********************774'},
'RetryAttempts': 0}}

  1. Boto3を使用して一度に複数の接着剤ジョブの詳細を取得するにはどうすればよいですか?

    この記事では、特定のジョブ名のリストのリソースメタデータのリストを取得する方法を説明します。 問題の説明 − Pythonでboto3ライブラリを使用して、アカウントで利用可能なジョブを取得します。たとえば、アカウントで利用できるジョブの詳細を取得します。 この問題を解決するためのアプローチ/アルゴリズム ステップ1 −例外を処理するためにboto3およびbotocore例外をインポートします。 ステップ2 −この関数にはパラメータは必要ありません。リストされているすべてのジョブをユーザーアカウントに取得し、各ジョブのメタデータを表示します。 ステップ3 −boto3ライブラリを使用し

  2. PythonでBoto3ライブラリを使用してクローラーの詳細を取得するにはどうすればよいですか?

    例:クローラーの詳細を取得する crawler_for_s3_file _ 仕事。 この問題を解決するためのアプローチ/アルゴリズム ステップ1 −例外を処理するためにboto3およびbotocore例外をインポートします。 ステップ2 −crawler_nameは必須パラメーターです。これはリストであるため、ユーザーは一度に複数のクローラー名を送信して詳細を取得できます。 ステップ3 −boto3ライブラリを使用してAWSセッションを作成します。 region_nameを確認してください デフォルトのプロファイルに記載されています。言及されていない場合は、 region_nameを