analizzare un dataframe

Analisi dei dati con Pandas e confronto con SQL

In questo articolo descriviamo le principali istruzioni per l’analisi dei dati della libreria Pandas di Python e le confrontiamo con la sintassi SQL equivalente. I metodi di Python saranno applicati ai Dataframe, una struttura dati molto simile alle tabelle dei Database relazionali, che organizza i dati in colonne tipizzate e righe ordinate.

Per prima cosa occorre importare la libreria pandas tramite l’istruzione

import pandas as pd

A questo punto possiamo creare un DataFrame a partire dai dati dal file Clienti.csv salvato sul mio repository di Github. Non c’è bisogno che lo scarichi, pandas è in grado di acquisire anche file csv salvati sul web! 

clienti = pd.read_csv(filepath_or_buffer = “https://raw.githubusercontent.com/iantomasinicola/Esercizi/main/Clienti.csv”,
sep = “;”,
header = 0,
usecols = [“NumeroCliente”,”Nome”,”Cognome”,”DataNascita”,”Regione”],
parse_dates = [“DataNascita”]
)

Selezionare i dati di un DataFrame

Per visualizzare il contenuto delle colonne Nome e Cognome del DataFrame clienti scriveremo

clienti[[“Nome”, “Cognome”]]

equivalente alla query SQL

SELECT Nome, Cognome
FROM Clienti;

Per evitare la visualizzazione di un numero eccessivo di dati, le istruzioni della libreria Pandas mostrano di default soltanto alcune delle colonne e delle righe selezionate.  Per modificare questo comportamento possiamo lanciare le istruzioni

pd.set_option(‘display.max_columns’, None)
pd.set_option(‘display.max_rows’, None)

Se vogliamo visualizzare tutte le colonne basterà eseguire la riga di codice contenente soltanto il nome del DataFrame.

 

Filtrare i dati di un DataFrame

Vediamo il codice per estrarre tutte le informazioni dei clienti della regione Lazio:

clienti[clienti[“Regione”] == “Lazio”]

che è equivalente al codice SQL

SELECT *
FROM Clienti
WHERE Regione=’Lazio’;

Vediamo ora come scrivere filtri più complessi, ad esempio per estrarre il NumeroCliente e il Nome dei clienti della regione Lazio che si chiamano Giovanni:

clienti[(clienti[“Regione”] == “Lazio”) & (clienti[“Nome”] == “Giovanni”)] \
[[“NumeroCliente”, “Nome”]]

Il carattere \ serve semplicemente per andare a capo nella scrittura del codice Python. L’istruzione precedente è equivalente alla query SQL

SELECT NumeroCliente,
     Nome
FROM Clienti
WHERE Regione=’Lazio’
  AND Nome=’Giovanni;

Il carattere corrispondente nella sintassi di Pandas all’operatore OR è la barra verticale “|“. Ricordiamoci sempre di racchiudere le condizioni tra parentesi tonde.

Vediamo infine come scrivere un filtro equivalente all’IN di SQL:

clienti[clienti[“Regione”].isin([“Piemonte”,”Lazio”])] \
[[“NumeroCliente”, “Nome”,”Regione”]] 

è equivalente a

SELECT NumeroCliente, Nome, Regione
FROM Clienti
WHERE Regione IN (‘Piemonte’, ‘Lazio’);

ed estrae i valori delle colonne NumeroCliente, Nome e Regione dei clienti residenti in Piemonte e Lazio.

Anche su pandas dobbiamo fare particolare attenzione ai null:

clienti[(clienti[“Regione”].isna())]
clienti[(clienti[“Regione”].notna())]

sono equivalenti ai filtri SQL regione IS NULL e regione IS NOT NULL. Ricordiamo infine questa importante differenza tra i due linguaggi nel caso in cui scriviamo un filtro con l’operatore != (diverso da). L’istruzione

clienti[(clienti[“Regione”] != “Lazio”]

riporterà anche le righe dove la Regione è null, ciò non accade invece con il codice SQL

SELECT *
FROM clienti
WHERE Regione <> ‘Lazio’;

 

Aggregare i dati di un DataFrame

Vediamo ora l’equivalente della clausola Group By su pandas. Per prima cosa importiamo un nuovo file

fatture = pd.read_csv(filepath_or_buffer = “https://raw.githubusercontent.com/iantomasinicola/Esercizi/main/Fatture.csv”,
sep = “;”, #separtore del file
header = None,
names = [“NumeroFattura”,”Tipologia”,”Importo”,”Iva”,”IdCliente”,”ResidenzaCliente”,”DataFattura”,”NumeroFornitore”],
parse_dates = [“DataFattura”], #quali colonne sono date
decimal = “,”, #separatore dei decimali il default è il .
)

Vediamo una sintassi che richiede almeno la versione 1.1.5 di Pandas. Per calcolare il numero di Fatture per ogni fornitore importiamo la libreria numpy e usiamo i metodi .groupby e .agg 

import numpy as np
fatture.groupby(by=”NumeroFornitore”, as_index=False, dropna=False) \
.agg(conteggio = (“NumeroFattura”, np.size) )

equivalente al codice SQL

SELECT NumeroFornitore, count(*)
FROM Fatture
GROUP BY NumeroFornitore;

Se dobbiamo scrivere un’aggregazione su più colonne, ad esempio su NumeroFornitore e IdCliente, che calcoli anche somme e medie, useremo:

  • una lista nel parametro by di groupby
  • i metodi sum, mean e size di numpy nell’agg.

fatture.groupby(by=[“NumeroFornitore”,”IdCliente”], as_index=False, dropna=False) \
.agg( somma_importo = (“Importo”, np.sum),
media_importo = (“Importo”, np.mean),
conteggio = (“NumeroFattura”, np.size)
)

L’argomento dropna=False è necessario per evitare che vengano eliminate le righe contenenti dei null nelle colonne raggruppate. 

 

Combinare i dati di più DataFrame

Siamo arrivati finalmente alla classica operazioni di join, che su pandas corrisponde al metodo merge. Ad esempio una inner join tra le tabelle Fatture e Clienti come questa

SELECT *
FROM Fatture
INNER JOIN Clienti
 ON Fatture.IdCliente = Clienti.NumeroCliente

è equivalente a una merge tra DataFrame scritta in questo modo

pd.merge(fatture,
clienti,
how = ‘inner’,
left_on = “IdCliente”,
right_on = “NumeroCliente”)

Se i due DataFrame hanno delle colonne con lo stesso nome, saranno disambiguate nell’output finale dai suffissi “_x” e “_y”. Tali suffissi sono customizzabili tramite il parametro suffixes, scrivendo ad esempio suffixes = (“_fatture”, “_clienti”).

Le varie tipologie di join SQL sono eseguibili su pandas valorizzando correttamente l’argomento how. I termini inner, left, right e cross coincidono, invece la full join va tradotta con il valore outer.

 

Corsi correlati

A questo link trovi un elenco di esercizi sui Dataframe con cui fare pratica https://www.yimp.it/esercizi-python-con-soluzioni-pandas-e-analisi-dei-dati/, a questo link invece trovi il mio corso di Python per l’analisi dei dati e il machine Learning https://www.yimp.it/python-per-il-machine-learning/.

Torna su