In questo articolo descriviamo le principali istruzioni per l’analisi dei dati della libreria Pandas di Python e le confrontiamo con la sintassi SQL equivalente. I metodi di Python saranno applicati ai Dataframe, una struttura dati molto simile alle tabelle dei Database relazionali, che organizza i dati in colonne tipizzate e righe ordinate.
Import di pandas e operazioni preliminari
Per prima cosa occorre importare la libreria pandas tramite l’istruzione
import pandas as pd
A questo punto possiamo creare un DataFrame a partire dai dati dal file Clienti.csv salvato sul mio repository di Github. Non c’è bisogno che lo scarichi, pandas è in grado di acquisire anche file csv salvati sul web!
f = "https://raw.githubusercontent.com/iantomasinicola/Esercizi/main/Clienti.csv"
clienti = pd.read_csv(filepath_or_buffer = f,
sep = ";",
header = 0,
usecols = ["NumeroCliente","Nome","Cognome",
"DataNascita","Regione"],
parse_dates = ["DataNascita"])
Selezionare i dati di un DataFrame con Pandas
Per visualizzare il contenuto delle colonne Nome e Cognome del DataFrame clienti scriveremo
clienti[["Nome", "Cognome"]]
equivalente alla query SQL
SELECT Nome,
Cognome
FROM Clienti;
Per evitare la visualizzazione di un numero eccessivo di dati, le istruzioni della libreria Pandas mostrano di default soltanto alcune delle colonne e delle righe selezionate. Per modificare questo comportamento possiamo lanciare le istruzioni
pd.set_option('display.max_columns', None)
pd.set_option('display.max_rows', None)
Se vogliamo visualizzare tutte le colonne basterà eseguire la riga di codice contenente soltanto il nome del DataFrame.
Filtrare i dati di un DataFrame con Pandas
Vediamo il codice per estrarre tutte le informazioni dei clienti della regione Lazio:
clienti.query("Regione == 'Lazio'")
che è equivalente al codice SQL
SELECT *
FROM Clienti
WHERE Regione = 'Lazio';
Nelle versioni meno aggiornate di Pandas dovevo ricorrere ad una sintassi un po’ più complessa:
clienti[clienti["Regione"] == "Lazio"]
Vediamo ora come scrivere filtri più complessi, ad esempio per estrarre il NumeroCliente e il Nome dei clienti della regione Lazio che si chiamano Giovanni:
clienti.query(" Regione == 'Lazio' and Nome == 'Giovanni' " )[["NumeroCliente","Nome"]]
L’istruzione precedente è equivalente alla query SQL
SELECT NumeroCliente,
Nome
FROM Clienti
WHERE Regione = 'Lazio'
AND Nome = 'Giovanni';
Vediamo infine come scrivere un filtro equivalente all’IN di SQL:
clienti.query( "Regione in ['Piemonte', 'Lazio'] ")[["NumeroCliente", "Nome", "Regione"]]
è equivalente a
SELECT NumeroCliente,
Nome,
Regione
FROM Clienti
WHERE Regione IN ('Piemonte', 'Lazio');
ed estrae i valori delle colonne NumeroCliente, Nome e Regione dei clienti residenti in Piemonte e Lazio.
Anche su pandas dobbiamo fare particolare attenzione ai null:
clienti.query("Regione.isna()" )
clienti.query("Regione.notna()" )
sono equivalenti ai filtri SQL regione IS NULL e regione IS NOT NULL. Ricordiamo infine questa importante differenza tra i due linguaggi nel caso in cui scriviamo un filtro con l’operatore != (diverso da). L’istruzione
clienti[(clienti["Regione"] != "Lazio"]
riporterà anche le righe dove la Regione è null, ciò non accade invece con il codice SQL
SELECT *
FROM Clienti
WHERE Regione <> 'Lazio';
Puoi ripassare e approfondire questi concetti con la prossima video-lezione
Metodo group by e agg per aggregare i dati di un DataFrame
Vediamo ora l’equivalente della clausola Group By su pandas. Per prima cosa importiamo un nuovo file
f2 = "https://raw.githubusercontent.com/iantomasinicola/Esercizi/main/Fatture.csv"
fatture = pd.read_csv(filepath_or_buffer = f2
sep = ";",
header = None,
names = ["NumeroFattura","Tipologia","Importo",
"Iva","IdCliente","ResidenzaCliente",
"DataFattura","NumeroFornitore"],
parse_dates = ["DataFattura"],
decimal = ",")
Vediamo una sintassi che richiede almeno la versione 1.1.5 di Pandas. Per calcolare il numero di Fatture per ogni fornitore importiamo la libreria numpy e usiamo i metodi groupby e agg:
import numpy as np
fatture.groupby(by = "NumeroFornitore",
as_index = False,
dropna = False) \
.agg(conteggio = ("NumeroFattura",
np.size) )
equivalente al codice SQL
SELECT NumeroFornitore,
COUNT(*)
FROM Fatture
GROUP BY NumeroFornitore;
Se dobbiamo scrivere un’aggregazione su più colonne, ad esempio su NumeroFornitore e IdCliente, che calcoli anche somme e medie, useremo:
- una lista nel parametro by di groupby
- i metodi sum, mean e size di numpy nell’agg.
fatture.groupby(by = ["NumeroFornitore", "IdCliente"],
as_index = False,
dropna = False) \
.agg(somma_importo = ("Importo",
np.sum),
media_importo = ("Importo",
np.mean),
conteggio = ("NumeroFattura",
np.size))
L’argomento dropna=False è necessario per evitare che vengano eliminate le righe contenenti dei null nelle colonne raggruppate. Puoi trovare un mio approfondimento sul metodo groupby in questo articolo.
Metodo merge per combinare i dati di più DataFrame
Siamo arrivati finalmente alla classica operazioni di join, che su pandas corrisponde al metodo merge. Ad esempio una inner join tra le tabelle Fatture e Clienti come questa
SELECT *
FROM Fatture AS F
INNER JOIN Clienti AS C
ON F.IdCliente = C.NumeroCliente;
è equivalente a una merge tra DataFrame scritta in questo modo
pd.merge(fatture,
clienti,
how = "inner",
left_on = "IdCliente",
right_on = "NumeroCliente")
Se i due DataFrame hanno delle colonne con lo stesso nome, saranno disambiguate nell’output finale dai suffissi “_x” e “_y”. Tali suffissi sono configurabili tramite il parametro suffixes, scrivendo ad esempio suffixes = (“_fatture”, “_clienti”). Le varie tipologie di join SQL sono eseguibili su pandas valorizzando correttamente l’argomento how. I termini inner, left, right e cross coincidono, invece la full join va tradotta con il valore outer. In questo articolo trovi un approfondimento sul metodo merge di Pandas.
Continua a imparare
- Segui la lezione successiva sul metodo groupby di Pandas
- Torna all’indice delle lezioni
- Visita la pagina del mio corso online su Pandas, Python e Machine Learning