Timnit Gebru
Timnit W. Gebru (Addis Abeba, 1983) è un'informatica etiope, nota per le sue ricerche sull'etica dell'intelligenza artificiale, sui bias algoritmici e sull'impatto sociale dei sistemi di apprendimento automatico. Cofondatrice del gruppo Black in AI, ha operato in istituzioni accademiche e industrie tecnologiche. Nel 2020 la controversa conclusione del suo rapporto di lavoro con Google, dove aveva ricoperto il ruolo di co-responsabile tecnica del team Ethical AI, ha suscitato un ampio dibattito pubblico sul rapporto tra ricerca accademica, etica dell'intelligenza artificiale e governance delle grandi aziende tecnologiche.

Timnit W. Gebru (Addis Abeba, 1983) è un'informatica etiope, nota per le sue ricerche sull'etica dell'intelligenza artificiale, sui bias algoritmici e sull'impatto sociale dei sistemi di apprendimento automatico[1].
Cofondatrice del gruppo Black in AI, ha operato in istituzioni accademiche e industrie tecnologiche.
Nel 2020 la controversa conclusione del suo rapporto di lavoro con Google, dove aveva ricoperto il ruolo di co-responsabile tecnica del team Ethical AI, ha suscitato un ampio dibattito pubblico sul rapporto tra ricerca accademica, etica dell'intelligenza artificiale e governance delle grandi aziende tecnologiche.[2][3]
Biografia
[modifica | modifica wikitesto]Origini e formazione (1983–2001)
[modifica | modifica wikitesto]Gebru è nata e cresciuta ad Addis Abeba in una famiglia di origine eritrea.[4] Il padre, ingegnere elettrico con un dottorato di ricerca, è morto quando lei aveva cinque anni ed è stata quindi cresciuta dalla madre, economista.[5][3]
A 15 anni, durante la guerra eritreo-etiope, ha lasciato l'Etiopia dopo che alcuni familiari erano stati deportati in Eritrea e costretti a combattere nel conflitto. Trascorso un periodo in Islanda, ha ottenuto asilo politico negli Stati Uniti, dove già vivevano la madre e le sorelle maggiori.[3][6]
Stabilitasi a Somerville, nel Massachusetts, ha riferito di aver subito forme di discriminazione razziale nella scuola superiore: alcuni insegnanti le avrebbero impedito l'accesso ai corsi Advanced Placement nonostante i suoi risultati scolastici.[7][3] Dopo il diploma, un episodio con le forze dell'ordine ha rafforzato questa percezione: alla denuncia di un'aggressione subita da una sua amica di colore, la polizia aveva arrestato la vittima anziché raccogliere la segnalazione. Gebru ha definito l'accaduto un «chiaro esempio di razzismo sistemico».[7]
Gli anni di Stanford e i primi passi nell'industria (2001–2013)
[modifica | modifica wikitesto]
Nel 2001 è stata ammessa alla Stanford University,[8][3] dove ha conseguito la laurea triennale e magistrale in ingegneria elettrica.[9] Durante gli studi ha svolto attività di volontariato politico: nel 2008 ha partecipato alla campagna presidenziale di Barack Obama con attività di porta a porta.[3]
Apple (2004-2013)
[modifica | modifica wikitesto]Mentre stava studiando Gebru è entrata in Apple come tirocinante ed ha lavorato nella divisione hardware alla progettazione di circuiti per componenti audio. Ha successivamente sviluppato un interesse crescente per i sistemi software di visione artificiale in grado di rilevare figure umane,[3] contribuendo allo sviluppo di algoritmi di elaborazione del segnale per il primo iPad, senza considerare, in quel periodo, le possibili applicazioni di sorveglianza di tali tecnologie.[3][10]
In occasione del movimento #AppleToo, nell'estate del 2021 - guidato dall'ingegnera Cher Scarlett, che ha dichiarato di essersi consultata anche con lei -[11][12][13] Gebru ha dichiarato di aver vissuto «molti episodi gravissimi» in azienda e di essersi interrogata su come Apple riuscisse a «restare fuori dai riflettori». Ha inoltre sottolineato che da tempo era attesa una maggiore responsabilità da parte dell'azienda, e che la stampa aveva contribuito a proteggerla da un'adeguata attenzione pubblica.[14][13]
Il dottorato e l'ingresso nella ricerca (2013–2018)
[modifica | modifica wikitesto]Nel 2013 ha intrapreso il dottorato in visione artificiale presso la Stanford University, nel laboratorio di Fei-Fei Li, applicando tecniche di deep learning a immagini di Google Street View.[9][15] La ricerca ha dimostrato che dai veicoli presenti nelle strade potessero essere dedotte variabili come orientamento di voto, reddito, appartenenza etnica e livello di istruzione.[9][15]
Nel corso del dottorato Gebru ha redatto un articolo - mai pubblicato - in cui ha espresso le prime preoccupazioni sui rischi dell'intelligenza artificiale, collegandoli alla scarsa rappresentanza di donne e minoranze etniche nel settore, e alle proprie esperienze personali con le forze dell'ordine. Il testo richiamava un'indagine di ProPublica sulla polizia predittiva negli Stati Uniti, evidenziando come i sistemi di apprendimento automatico potessero riprodurre pregiudizi umani. L'articolo criticava inoltre la «cultura da club maschile» del settore, citando episodi di molestie subite durante conferenze, e metteva in discussione la tendenza a idealizzare alcune figure di spicco nel campo dell'IA.[3][7]
Queste preoccupazioni hanno trovato conferma nel 2015, quando durante la partecipazione alla Neural Information Processing Systems (NIPS) a Montréal, Gebru ha rilevato la presenza di pochissimi ricercatori neri su 3.700 partecipanti.[16] Tornata alla conferenza l'anno seguente ha constatato come la situazione non fosse migliorata: su 8.500 delegati ve ne erano solo cinque di colore, e lei era l'unica donna nera presente.[3]
Questa esperienza l'ha portata a fondare, insieme alla collega Rediet Abebe, Black in AI, una comunità di ricercatori neri attivi nell'intelligenza artificiale, con l'obiettivo di aumentare la presenza, la visibilità e il benessere dei professionisti e dei leader neri nel settore.[17][18]
Nel 2016 e nel 2018 è tornata in Etiopia come docente volontaria per il programma di formazione AddisCoder fondato da Jelani Nelson.[19][20]
Nell'estate del 2017, conseguito il dottorato sotto la supervisione di Fei-Fei Li,[15][21] ha presentato la sua ricerca al concorso LDV Capital Vision Summit, vincendo la competizione e avviando collaborazioni con imprenditori e investitori.[22][23] Nello stesso anno è entrata in Microsoft come ricercatrice postdoc nel laboratorio Fairness, Accountability, Transparency, and Ethics in AI (FATE).[3][24]
Sempre nel 2017 è intervenuta alla conferenza Fairness and Transparency, dove MIT Technology Review l'ha intervistata sui bias presenti nei sistemi di intelligenza artificiale e sul contributo che una maggiore diversità nei team avrebbe potuto apportare per mitigarli. Alla domanda su come la mancanza di diversità distorcesse i sistemi di IA, Gebru ha risposto sottolineando che tali pregiudizi riflettono quelli presenti tra gli stessi sviluppatori.[25]
Nel 2018 è stata coautrice con Joy Buolamwini dello studio Gender Shades, che ha dato il nome a un progetto più ampio del Massachusetts Institute of Technology. L'analisi di sistemi di riconoscimento faccialeha rilevato che, in una specifica implementazione, le donne nere avevano una probabilità inferiore del 35% di essere riconosciute rispetto agli uomini bianchi.[26]
Google (2018–2020)
[modifica | modifica wikitesto]Nel 2018 Gebru è entrata in Google, dove ha co-guidato il team dedicato all'etica dell'intelligenza artificiale insieme a Margaret Mitchell, con l'obiettivo di studiare le implicazioni sociali dell'IA e migliorare la capacità delle tecnologie di produrre benefici per la società.[27]
Nel 2019, con altri ricercatori, ha firmato una lettera indirizzata ad Amazon per chiedere l'interruzione della vendita della propria tecnologia di riconoscimento facciale alle forze dell'ordine. La richiesta si basava su uno studio del MIT che documentava come il sistema di Amazon presentasse maggiori difficoltà nell'identificazione delle donne con pelle scura rispetto ai software di altre aziende.[28] In un'intervista al New York Times ha inoltre sostenuto che il riconoscimento facciale fosse, allo stato attuale, troppo pericoloso per essere impiegato in ambito di sicurezza e applicazione della legge.[29]
Uscita da Google
[modifica | modifica wikitesto]Nel 2020 è stata tra le autrici dell'articolo On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, che analizzava i rischi dei grandi modelli linguistici, tra cui l'impatto ambientale, i costi economici, l'opacità dei modelli, la possibilità di riprodurre pregiudizi presenti nei dati e il rischio di utilizzo per diffondere disinformazione.[30]
Prima della pubblicazione Google ha richiesto la rimozione dell'articolo o dei nomi dei ricercatori dipendenti dell'azienda. A seguito di uno scambio di comunicazioni interne, nel dicembre 2020 il rapporto di lavoro tra Gebru e Google si è concluso in circostanze controverse: l'azienda ha dichiarato di aver accettato le sue dimissioni, mentre Gebru ha sostenuto di essere stata licenziata.[3][7]
La vicenda ha suscitato un ampio dibattito pubblico: migliaia di dipendenti di Google e numerosi accademici hanno firmato una lettera di protesta chiedendo chiarimenti sull'accaduto[31][32] e nove membri del Congresso hanno inviato una lettera a Google chiedendo chiarimenti sulle circostanze dell'uscita.[33]
Mitchell ha criticato pubblicamente su Twitter il trattamento riservato da Google ai dipendenti impegnati a contrastare bias e tossicità nei sistemi di IA, incluso il presunto licenziamento di Gebru, ed è stata successivamente allontanata dall'azienda dopo aver presumibilmente creato script automatizzati per analizzare i server interni alla ricerca di prove del trattamento subito da Gebru.[34][35]
Ricerca indipendente (2021-)
[modifica | modifica wikitesto]Nel dicembre 2021 Gebru ha fondato il Distributed Artificial Intelligence Research Institute (DAIR), un centro di ricerca indipendente dedicato allo studio degli impatti sociali dell'intelligenza artificiale, con particolare attenzione agli effetti sui gruppi marginalizzati, sull'Africa e sugli immigrati africani negli Stati Uniti.[3][36][37]
Uno dei primi progetti dell'istituto ha previsto l'analisi, tramite intelligenza artificiale, di immagini satellitari dei township sudafricani per studiare le eredità dell'apartheid.[7]
Insieme al filosofo Émile P. Torres, ha coniato il termine TESCREAL per descrivere e criticare un insieme di correnti futuriste e tecnologiche - transumanesimo, estropianesimo, singolaritanismo, cosmismo russo, razionalismo, altruismo efficace e lungoterminismo - ritenute capaci di esercitare un'influenza orientata a destra nel settore Big Tech. I loro sostenitori sono stati paragonati da Gebru agli «eugenisti del XX secolo» per la produzione di progetti dannosi presentati come «a beneficio dell'umanità».[38]
Ha inoltre criticato la ricerca sull'intelligenza artificiale generale (AGI), sostenendo che essa affonda le proprie radici nell'eugenetica e che l'attenzione dovrebbe essere spostata lontano da tale obiettivo, ritenendo intrinsecamente rischioso qualsiasi tentativo di svilupparla.[39]
Premi e riconoscimenti
[modifica | modifica wikitesto]Nel 2019 Gebru, Joy Buolamwini e Inioluwa Deborah Raji hanno ricevuto il VentureBeat AI Innovations Award per la ricerca sui bias nei sistemi di riconoscimento facciale.[40][41]
Nel 2021 è stata inclusa tra i «50 greatest leaders» dalla rivista Fortune[42] e tra le dieci persone che hanno maggiormente influenzato la scienza secondo la rivista Nature.[43]
Nel 2022 è stata inserita nella lista annuale delle cento persone più influenti del mondo dalla rivista Time.[44]
Nel 2023 ha ricevuto il Great Immigrants Award della Carnegie Corporation of New York ed è stata inclusa nella lista BBC 100 Women.[45]
Pubblicazioni (parziali)
[modifica | modifica wikitesto]- (EN) Timnit Gebru, Jonathan Krause e Yilun Wang, Using deep learning and Google Street View to estimate the demographic makeup of neighborhoods across the United States, in Proceedings of the National Academy of Sciences, vol. 114, n. 50, 2017, pp. 13108–13113, DOI:10.1073/pnas.1700035114.
- (EN) Joy Buolamwini e Timnit Gebru, Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification, in Proceedings of Machine Learning Research, vol. 81, 2018, pp. 1–15.
- (EN) Timnit Gebru, Race and Gender, in Markus D. Dubber, Frank Pasquale e Sunit Das (a cura di), The Oxford Handbook of Ethics of AI, Oxford University Press, luglio 2020, pp. 251–269, DOI:10.1093/oxfordhb/9780190067397.013.16, ISBN 978-0-19-006739-7.
- (EN) Timnit Gebru e Émile P. Torres, The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence, in First Monday, vol. 29, n. 4, 2024, DOI:10.5210/fm.v29i4.13636.
Note
[modifica | modifica wikitesto]- ^ (EN) Drew Harwell e Nitasha Tiku, Google's star AI ethics researcher, one of a few Black women in the field, says she was fired for a critical email, in The Washington Post, 5 dicembre 2020. URL consultato il 15 dicembre 2023 (archiviato dall'url originale il 1º maggio 2022).
- ^ (EN) Cade Metz, Google Researcher Says She Was Fired Over Paper Highlighting Bias in A.I., su The New York Times, 3 dicembre 2020. URL consultato il 10 marzo 2026.
- ^ a b c d e f g h i j k l m (EN) Tom Simonite, What Really Happened When Google Ousted Timnit Gebru, in Wired, 8 giugno 2021, ISSN 1059-1028. URL consultato il 10 marzo 2026 (archiviato dall'url originale l'11 giugno 2021).
- ^ Andrew King e Paul Aljabar, MATLAB Programming for Biomedical Engineers and Scientists, Elsevier Academic Press, 2022, ISBN 978-0-323-85773-4, OCLC 1286795502.
- ^ (EN) Ava Chisling, Excuse me, sir, but where are all the women?, su ROSS Intelligence, 24 luglio 2017. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 10 gennaio 2019).
- ^ (EN) Timnit Gebru | Advocating for Diversity, Inclusion, and Ethics in AI, su Women in Data Science Conference, 24 ottobre 2019. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 7 dicembre 2020).
- ^ a b c d e (EN) Billy Perrigo, Why Timnit Gebru Isn't Waiting for Big Tech to Fix AI's Problems, in Time, 18 gennaio 2022. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 19 gennaio 2022).
- ^ (EN) Lisa Lahde, AI Innovators: How One Woman Followed Her Passion and Brought Diversity to AI, su Forbes. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 10 gennaio 2019).
- ^ a b c (EN) People In AI, Timnit Gebru honored as an Alicorn of Artificial Intelligence by People in AI, su Selfpreneur, 16 settembre 2017. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 5 dicembre 2020).
- ^ (EN) Timnit Gebru, su Databricks. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 10 gennaio 2019).
- ^ (EN) Caitlin Harrington, Apple Together Brings Corporate Workers Into the Union Effort, in Wired, ISSN 1059-1028. URL consultato il 10 marzo 2026.
- ^ (EN) Martin Coulter e Hugh Langley, Meet 18 Big Tech workers turned activists forcing scrutiny of everything from NDAs to military contracts, su Business Insider, 18 ottobre 2021. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 20 gennaio 2022).
- ^ a b (EN) Reed Albergotti, She pulled herself from addiction by learning to code. Now she's leading a worker uprising at Apple., in The Washington Post, 14 ottobre 2021. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 14 ottobre 2021).
- ^ (EN) Zoe Schiffer, Apple employees are organizing, now under the banner #AppleToo, su The Verge, 23 agosto 2021. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 28 agosto 2021).
- ^ a b c (EN) Timnit Gebru, Visual computational sociology: computer vision methods and challenges, Stanfort University, 2017.
- ^ (EN) Karen Hao, Inside the fight to reclaim AI from Big Tech's control, su MIT Technology Review, 14 giugno 2021. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 22 gennaio 2022).
- ^ (EN) Black in AI - MacArthur Foundation, su macfound.org. URL consultato il 10 marzo 2026.
- ^ (EN) Dina Bass, Google's Former AI Ethics Chief Has a Plan to Rethink Big Tech, in Bloomberg, 20 settembre 2021. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 6 dicembre 2021).
- ^ (EN) Timnit Gebru: Among Incredible Women Advancing A.I. Research at Tadias Magazine, su Tadias. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 10 gennaio 2019).
- ^ (EN) History | AddisCoder, su www.addiscoder.com. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 21 marzo 2018).
- ^ (EN) Understanding the Limits of AI: When Algorithms Fail, su MIT Technology Review. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 5 dicembre 2020).
- ^ (EN) Speaker Details: EmTech MIT - Timnit Gebru, su event.technologyreview.com. URL consultato il 10 marzo 2026.
- ^ (EN) Timnit Gebru Wins 2017 ECVC, su LDV Capital, 21 luglio 2017. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 10 gennaio 2019).
- ^ (EN) Timnit Gebru, su Design Better. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 10 gennaio 2019).
- ^ Margaret Mitchell, Simone Wu, Andrew Zaldivar, Parker Barnes, Lucy Vasserman, Ben Hutchinson, Elena Spitzer, Inioluwa Deborah Raji e Timnit Gebru, Model Cards for Model Reporting, in Proceedings of the Conference on Fairness, Accountability, and Transparency, New York, ACM Press, 2019, pp. 220–229, DOI:10.1145/3287560.3287596, ISBN 978-1-4503-6125-5, arXiv:1810.03993.
- ^ (EN) Steve Lohr, Facial Recognition Is Accurate, if You're a White Guy, in The New York Times, 9 febbraio 2018, ISSN 0362-4331. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 9 gennaio 2019).
- ^ (EN) Office of Web Communications, Cornell University, Digital Life Seminar | Timnit Gebru, su Cornell. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 10 gennaio 2019).
- ^ (EN) Andrea Mitchell, A.I. Experts Question Amazon's Facial-Recognition Technology, in ICT Monitor Worldwide; Amman, aprile 2019 (archiviato dall'url originale il 26 novembre 2019).
- ^ (EN) Shira Ovide, A Case for Banning Facial Recognition, in The New York Times, 9 giugno 2020, ISSN 0362-4331. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 17 luglio 2020).
- ^ (EN) Karen Haoarchive, We read the paper that forced Timnit Gebru out of Google. Here's what it says., su MIT Technology Review, 4 dicembre 2020. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 6 ottobre 2021).
- ^ (EN) Julia Carrie Wong, More than 1,200 Google workers condemn firing of AI scientist Timnit Gebru, in The Guardian, 4 dicembre 2020. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 15 dicembre 2020).
- ^ (EN) Nico Grant e Dina Bass, Google Sidelines Second Artificial Intelligence Researcher, in Bloomberg, 20 gennaio 2021. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 21 gennaio 2021).
- ^ (EN) Karen Hao, Congress wants answers from Google about Timnit Gebru's firing, in MIT Technology Review, 17 dicembre 2020. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 25 dicembre 2020).
- ^ (EN) Rachel Metz, Google is trying to end the controversy over its Ethical AI team. It's not going well, su CNN, 19 febbraio 2021. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 19 gennaio 2022).
- ^ (EN) Cade Metz, A second Google A.I. researcher says the company fired her., in The New York Times, 20 febbraio 2021, ISSN 0362-4331. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 19 gennaio 2022).
- ^ (EN) Nitasha Tiku, Google fired its star AI researcher one year ago. Now she's launching her own institute, in The Washington Post, 2 dicembre 2021. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 2 dicembre 2021).
- ^ (EN) Devin Coldewey, After being pushed out of Google, Timnit Gebru forms her own AI research institute: DAIR, su TechCrunch, 2 dicembre 2021. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 24 febbraio 2022).
- ^ (EN) Anjana Ahuja, We need to examine the beliefs of today's tech luminaries, in Financial Times, 10 maggio 2023. URL consultato il 10 marzo 2026.
- ^ (EN) Sophia Artandi, 'Utopia for Whom?': Timnit Gebru on the dangers of Artificial General Intelligence, su Stanford Daily, 15 febbraio 2023. URL consultato il 10 marzo 2026.
- ^ (EN) AI innovation winners announced in San Francisco, su Innovation Matrix, 12 luglio 2019. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 12 luglio 2020).
- ^ (EN) Chris Burt, Buolamwini, Gebru and Raji win AI Innovation Award for research into biometric bias, su Biometric Update, 18 luglio 2019. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 12 luglio 2020).
- ^ (EN) Timnit Gebru, su Fortune. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 14 maggio 2021).
- ^ (EN) Nature's 10: Ten people who helped shape science in 2021, su Nature. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 18 febbraio 2022).
- ^ (EN) Safiya Noble, Timnit Gebru: The 100 Most Influential People of 2022, in Time, 23 maggio 2022. URL consultato il 10 marzo 2026 (archiviato dall'url originale il 6 giugno 2022).
- ^ (EN) Pedro Pascal and World Bank's Ajay Banga among those named to Carnegie's 2023 Great Immigrants list, su AP News, 28 giugno 2023. URL consultato il 10 marzo 2026.
Altri progetti
[modifica | modifica wikitesto]
Wikimedia Commons contiene immagini o altri file su Timnit Gebru
Collegamenti esterni
[modifica | modifica wikitesto]- (EN) Sito ufficiale, su ai.stanford.edu.
- (EN) Timnit Gebru, su Mathematics Genealogy Project, North Dakota State University.
- (EN) Opere di Timnit Gebru, su Open Library, Internet Archive.
- (EN) Opere riguardanti Timnit Gebru, su Open Library, Internet Archive.
- (EN) Timnit Gebru, su Goodreads.
- (EN) Timnit Gebru, su GitHub.
| Controllo di autorità | VIAF (EN) 8175095507150011152 · ORCID (EN) 0009-0007-4814-1944 · LCCN (EN) no2025069617 |
|---|