Python
 Computer >> コンピューター >  >> プログラミング >> Python

Python Pandas –複数の列から一意の値を検索します


複数の列から一意の値を検索するには、unique()メソッドを使用します。 PandasDataFrameに「EmpName」と「Zone」の従業員レコードがあるとします。 2人の従業員が同じような名前を持つことができ、ゾーンが複数の従業員を持つことができるため、名前とゾーンが繰り返される可能性があります。その場合、一意の従業員名が必要な場合は、DataFrameにunique()を使用してください。

まず、必要なライブラリをインポートします。ここでは、pdをエイリアスとして設定しています-

import pandas as pd

まず、DataFrameを作成します。ここでは、2つの列があります-

dataFrame = pd.DataFrame(
   {
      "EmpName": ['John', 'Ted', 'Jacob', 'Scarlett', 'Ami', 'Ted', 'Scarlett'],"Zone": ['North', 'South', 'South', 'East', 'West', 'East', 'North']
   }
)

DataFrame列の「EmpName」と「Zone」から一意の従業員名とゾーンを取得します-

{pd.concat([dataFrame['EmpName'],dataFrame['Zone']]).unique()}

以下は完全なコードです-

import pandas as pd

# Create DataFrame
dataFrame = pd.DataFrame(
   {
      "EmpName": ['John', 'Ted', 'Jacob', 'Scarlett', 'Ami', 'Ted', 'Scarlett'],"Zone": ['North', 'South', 'South', 'East', 'West', 'East', 'North']
   }
)

print("DataFrame ...\n",dataFrame)

# Fetch unique values from multiple columns
print(f"\nFetching unique Values from the two columns and concatenate them:\n \
{pd.concat([dataFrame['EmpName'],dataFrame['Zone']]).unique()}")

出力

これにより、次の出力が生成されます-

DataFrame ...
    EmpName   Zone
0      John  North
1       Ted  South
2     Jacob  South
3  Scarlett   East
4       Ami   West
5       Ted   East
6  Scarlett  North

Fetching unique Values from the two columns and concatenate them:
['John' 'Ted' 'Jacob' 'Scarlett' 'Ami' 'North' 'South' 'East' 'West']

  1. Python-Pandasデータフレームから複数の列を選択します

    以下は、MicrosoftExcelで開いたCSVファイルの内容であるとしましょう- 最初に、CSVファイルからPandasDataFrameにデータをロードします- dataFrame = pd.read_csv("C:\\Users\\amit_\\Desktop\\SalesData.csv") 複数の列レコードを選択するには、角かっこを使用します。括弧内の列に言及し、データセット全体から複数の列をフェッチします- dataFrame[['Reg_Price','Units']] 例 以下はコードです- import pa

  2. Python Pandas-DataFrameに複数のデータ列をプロットしますか?

    複数の列をプロットするには、棒グラフをプロットします。 plot()を使用します メソッドと種類を設定します バーへのパラメータ 棒グラフ用。まず、必要なライブラリをインポートしましょう- import pandas as pd import matplotlib.pyplot as mp 以下は、チームレコードのデータです- data = [["Australia", 2500, 2021],["Bangladesh", 1000, 2021],["England", 2000, 2021],["India"