Affrontiamo un argomento lungo e difficile, tuttavia necessariamente non esaustivo. Non so quanti avranno tempo e pazienza per arrivare in fondo. Non lo saprò mai, non uso cookies (!).

Buon weekend!

Ci siamo dentro tutti: quando traduciamo un testo in un’altra lingua con una precisione che non c’era vent’anni addietro, quando parliamo al telefonino in italiano e quello ripete anche in arabo, quando si attiva perché riconosce la faccia, quando riconosce le impronte digitali, quando risponde ad una mia domanda, quando faccio la ricerca di un hotel o di un volo, quando mostro un’immagine e mi dice che cosa rappresenta e dove è. La lista è infinita.

E’ breve invece l’affermazione che “in Italia siamo indietro nel processo di digitalizzazione” presupposto per un funzionamento esaustivo della IA. Pensate agli uffici, ai Comuni, alle Biblioteche, ecc, Quanti hanno digitalizzato i dati, cioè quanto hanno trasferito dal cartaceo al computer?

Ma anche molte aziende che ci torturano con le innocenti addette ai call center che ci deliziano con proposte di abbonamenti per telefonia, energia, ecc!

Pensate, le aziende hanno un insieme di numeri telefonici di potenziali clienti, altrimenti non potrebbero telefonare, hanno anche un insieme di numeri telefonici che sono quelli dei loro clienti già acquisiti, il programma più banale del mondo consentirebbe di confrontare i numeri e selezionare quelli di quanti non sono clienti. Invece no, telefonano a tutti, ci pensa un sistema automatico, per proporre di abbonarsi a quelli che sono già abbonati. Anno zero? No! Ma elefantiasi burocratica, si!

Entriamo in un argomento complesso, in un campo che si è sviluppato prepotentemente negli ultimi decenni ma che di fatto si sviluppa con l’informatica e con i processi logici che stanno dietro. Ricordo quando studente agli albori prima di scrivere un programma, con uno dei linguaggi adatti ad un computer, il primo passo era un flow chart, un diagramma di flusso del ragionamento, fatto di blocchi con tanto di input, scelte, condizioni, connettivi logici, output, ecc., il secondo passo la stesura del programma adatto al computer.

I connettivi logici sono quelli che collegano due proposizioni, come: “or”, “and”, “not” che sono le ben note congiunzioni coordinanti “o”, “e”, “non”, la prima delle quali può essere inclusiva (o l’una o l’altra o tutte e due; vel in latino) o esclusiva (o l’una o l’altra; aut in latino).

L’informatica si basa su circuiti elettronici che svolgono la funzione dei connettivi logici nella lingua.

Un algoritmo è nelle nostre abitudini, può essere paragonato a una ricetta: è una sequenza di istruzioni che, seguite nel giusto ordine, partendo da specifici input (datIJ consente di ottenere un determinato risultato, output.

L’attività umana è incentrata su algoritmi operativi anche nel più banale quotidiano quando mettiamo sul fuoco una pentola con l’acqua per far cuocere la pasta o quando ci sediamo al sedile di un auto e partiamo..

Prendi una pentola, metti l’acqua, “è al livello giusto?”, se la risposta è “si” chiudi il rubinetto altrimenti aspetta e reitera, quando è “si” metti la pentola sul fuoco, accendi il gas, “l’acqua bolle?”, se è “si” metti il sale, se è “no” aspetta e reitera, metti la pasta, mescola, se sono passati i minuti previsti assaggia, se va bene scola, altrimenti aspetta e reitera, ecc.ecc

Il concetto di algoritmo ha origini millenarie, ma si è esaltato quando ha incontrato l’informatica e l’automazione

L’intelligenza artificiale (IA) è un campo interdisciplinare che si occupa dello sviluppo di sistemi informatici in grado di eseguire compiti che altrimenti richiederebbero l’intervento umano. Questi compiti includono il riconoscimento di modelli, l’apprendimento, il ragionamento, la pianificazione, la previsione e l’ottimizzazione.

L’IA si è evoluta notevolmente negli ultimi decenni, grazie allo sviluppo di potenti algoritmi, all’aumento della capacità di calcolo e all’accesso a grandi quantità di dati.

L’IA si basa su diverse aree di conoscenza, tra cui l’informatica, la matematica, la psicologia cognitiva, la logica, la filosofia e la neuroscienza. Tra le principali aree di ricerca in campo dell’IA vi sono il machine learning, la visione artificiale, il processing del linguaggio naturale, la robotica e l’ottimizzazione.

Il machine learning è un’area chiave per lo sviluppo dell’IA, poiché consente ai computer di imparare dalle esperienze passate e di adattarsi in maniera autonoma ai cambiamenti nell’ambiente circostante.

Esistono diversi approcci al machine learning, tra cui il deep learning che è un metodo di intelligenza artificiale che insegna ai computer a elaborare i dati in un modo che si ispira al cervello umano. I modelli di deep learning sono in grado di riconoscere pattern (modelli) complessi in immagini, testo, suoni e altri dati per produrre informazioni e previsioni accurate. Utilizza reti neurali artificiali per apprendere modelli complessi dai dati.

La visione artificiale si occupa dello sviluppo di algoritmi e sistemi in grado di analizzare e interpretare le informazioni visive, consentendo ai computer di riconoscere oggetti, persone e azioni all’interno di immagini e video.

Il processing del linguaggio naturale è un’altra area chiave dell’IA, che si occupa dello sviluppo di algoritmi in grado di comprendere, interpretare e generare il linguaggio umano in maniera automatica e intelligente.

La robotica è un’altra area importante dell’IA, che si occupa dello sviluppo di sistemi autonomi capaci di percepire l’ambiente circostante e interagire con esso in maniera intelligente.

L’IA ha numerose applicazioni pratiche, tra cui i sistemi di raccomandazione, i veicoli autonomi, i chatbot (simulano le conversazioni umane), i sistemi di diagnosi medica, i sistemi di riconoscimento facciale, delle impronte, i sistemi di traduzione automatica e i sistemi di analisi dei dati per l’ottimizzazione aziendale.

Precisiamo che i sistemi di raccomandazione sono importanti algoritmi  che hanno lo scopo di dare suggerimenti utili agli utenti, attraverso l’analisi dei loro interessi e comportamenti  di utenti simili. Chi non si è mai imbattuto nei cookies?

Ci “spiano” con i biscottini: i cookies (“biscotti” in inglese) sono dei piccoli file di testo necessari affinché il server del sito web che li ha installati possa ottenere informazioni sulla nostra attività su quelle pagine web, chi si è collegato e cosa ha cercato.

Tutto questo avviene nel quotidiano con un computer o con un telefonino.

Nonostante i notevoli progressi raggiunti, l’IA presenta ancora diverse sfide e limiti, tra cui la comprensione dell’etica e della responsabilità nell’uso dell’IA, la garanzia della sicurezza e della privacy dei dati, il controllo della potenziale automazione del lavoro umano e la trasparenza dei sistemi decisionali.

La rapidità di ricerca è tale che in pochi istanti si fanno ricerche consultando milioni di fonti in tutti i campi che siano della medicina, della giurisprudenza delle norme esistenti, ecc.

Ma tutto si basa su una corretta e completa digitalizzazione.

In sintesi, l’intelligenza artificiale è un campo in rapida evoluzione che sta rivoluzionando numerosi settori e aspetti della società. L’IA offre opportunità significative per migliorare la nostra capacità di sfruttare la complessità dei dati e dell’informazione per prendere decisioni più intelligenti e basate sui fatti. Tuttavia, è importante garantire un uso responsabile e etico dell’IA, al fine di massimizzare i benefici e ridurre i rischi associati a questa tecnologia in continua evoluzione.

FOTO DI COPERTINA DA WIKIPEDIA