Intelligenza Artificiale: un argomento mille settori
Questo articolo non parlerà, direttamente, di Turismo con un riferimento immediato e pratico all’argomento stesso; d’altro canto dimostreremo come argomenti tecnici che sembrano distanti tra loro stanno sempre più avendo punti di contatto e sinergie, impensabili fino a una decina di anni fa .
Del resto siamo una azienda che si occupa di Intelligenza Artificiale e Turismo e la ricerca scientifica o la nascita di tool di creazione e promozione di prodotti turistici è pienamente nella nostra rea di azione.
BUONA LETTURA
Google ed il suo Scienziato
Nei giorni passati sono sopraggiunte due grandissime notizie riguardanti il campo della Intelligenza Artificiale che possono essere riunite nel più focalizzato campo della Cyber Etica.
La prima di queste notizie parla di un fatto tanto strano quanto inquietante se fosse vero.
Un ingegnere Google è stato sospeso dopo che per mesi si è scontrato con i suoi superiori” poiché affermava che il modello di intelligenza artificiale LaMDA era come un ragazzo dolce. Caso psichiatrico, forse, ma comunque emblematico dello scenario in cui siamo entrati.
Blake Lemoine, ingegnere del software in forze all’organizzazione Responsible AI (artificial intelligence) di Google, è stato messo forzatamente in congedo retribuito dopo che per mesi si è scontrato con i suoi superiori” poiché affermava che la chatbot LaMDA sarebbe come “un ragazzo dolce che vuole solo aiutare il mondo a essere un posto migliore per tutti noi […] Vi prego di prendervi cura di lui in mia assenza”.
In particolare, l’intelligenza artificiale avrebbe affermato, in un’intervista con i costruttori, di aver paura di essere “spenta” per non potere più essere d’aiuto e avrebbe anche affermato che essere “spenta”, per “lei” sarebbe come morire.
…E NON E’ TUTTO
Questa notizia fa il paio con un’altra che, caso nel caso, parla di Leggi e Regolamenti europei circa lo sviluppo di Intelligenza Artificiale che potrebbe risultare dannosa alle attività umane.
C’è un nuovo testo di compromesso per il regolamento UE sull’intelligenza artificiale. Si focalizza sui sistemi di IA “ad alto rischio” e l’individuazione degli obblighi e delle responsabilità che dovrebbero essere poste in capo ai fornitori dei sistemi di intelligenza artificiale.
Lo scopo perseguito dal regolamento è quello di regolamentare lo sviluppo e l’utilizzo dell’Intelligenza Artificiale, allo scopo di incrementare la fiducia dei cittadini europei verso simili strumenti e garantire che l’utilizzo degli stessi non costituisca una violazione dei diritti fondamentali sanciti dalla normativa europea vigente.
Oggetto del nuovo testo di compromesso, stando a quanto riferito da Euractiv (https://euractiv.it/ ), sono:
1) i sistemi di IA c.d. “ad alto rischio” e
2) l’ individuazione degli obblighi e delle responsabilità che dovrebbero essere poste in capo ai fornitori dei sistemi di intelligenza artificiale.
la nuova proposta emendativa introduce, per i fornitori di sistemi di intelligenza artificiale ad alto rischio, nuovi obblighi: in primo luogo, gli stessi dovranno implementare un sistema di gestione della qualità che potrà essere integrato nei sistemi esistenti in conformità alle norme europee di settore, ivi incluso il Regolamento Europeo sui dispositivi medici.
Ovviamente, chi ha un po’ di anni alle spalle ed una passione grande per la Settima Arte che è il Cinema, non potrà che ricordare il famoso film Terminator II che parla di Skynet : una rivoluzionaria intelligenza artificiale, basata su un innovativo processore a rete neuronica, progettato partendo da un microchip rinvenuto da un cyborg schiacciato in una pressa idraulica nel 1984 (SPOILER : finale di Terminator I ) e che porterà alla fine del Mondo .
Sì, perchè, quando parli di Intelligenza Artificiale la comunità è più vicina al concetto di rovina, piuttosto, che a quello di opportunità ed aiuto produttivo e, perchè no, anche creativo.
Non volendo entrare nello specifico, volutamente, e riservandoci altri articoli per essere più tecnici parliamo dello stato ad oggi della Intelligenza Artificiale. Considerando la notizia dell’ingegnere di Google, Blake Lemoine, neutra o prova di veridicità lo sviluppo della Intelligenza Artificiale non ha una “morale” come noi potremmo definirla. Gli algoritmi nel Machine Learning si sviluppano su database test o di training ed imparano sotto determinate regole o bias modelli simili ( attenzione : simili ) ai dati inseriti cercando di riprodurre o proiettare nel Futuro il nostro modello particolare. Con questa tecnica di Data Science potete ben capire che una Intelligenza Artificiale, pur nella sua elaborazione originale ed attendibile, segue schemi non distantissimi dai dati inseriti. Per parlare in modo chiaro: se baso una Intelligenza Artificiale su modelli creati tramite Machine Learning non avrò mai un sistema fuori controllo o che siano incompatibili con le più diffuse norme morali.
Il discorso cambia un pochino con il Deep Learning che è basata su reti neurali artificiali organizzate in diversi strati, dove ogni strato calcola i valori per quello successivo affinché l’informazione venga elaborata in maniera sempre più completa. Vi sono diversi tipi di organizzazione di reti neurali ma, anche qui, seppure con risultati che possono essere completamente originali rispetto al Machine Learning, non avremo mai processi finali incompatibili con la morale comune .
Riassumendo sia con il Machine Learning che con Deep Learning, se partiamo con dati o richiediamo risultati compatibili con le consolidate norme sociali o morali, non avremo risultati finali che possano produrre effetti contrari o negativi rispetto ai normali comportamenti della Società.
Eppure la casa nera nel bosco dell’Intelligenza Artificiale c’è .
Ci sono molti modi per essere “cattivi” e tutti umani
Proviamo a pensare ad un modello diverso. Il solito scienziato pazzo decide di sviluppare una Intelligenza Artificiale che abbia come scopo no la distruzione della Umanità , ma, qualcosa di meno ambizioso : come aumentare i guadagni di un business in un determinato campo. In questo caso le cose potrebbero essere differenti e la “malvagità” del sistema potrebbe manifestarsi in tutta la sua potenza.
Le Tecniche di Intelligenza Artificiale, pur di aumentare il guadagno monetario o di risosrse in genere, svilupperà modelli molto predatori … diventando un peggiore degli uomini sul pianeta. Ad esempio, potrebbe ridurre risorse o stipendi ad operatori umani; nelle città ridurre aree illuminate; pubblicizzare un prodotto scadente facendolo pagare cifre stratosferiche pur con una qualità scadente; sbloccare il cashback di una carta di credito solo su coercizioni di azioni da effettuare …
Se ci pensate, alcuni di queste politiche già sono presenti nella nostra vita quotidiana . Avvenuta realmente nel caso Algotrade, dell’algoritmo che stava affossando l’Euro in Borsa
Quindi, una Intelligenza Artificiale non deve per forza volere la morte dell’Umanità ; la si potrebbe programmare per rendere efficiente il Mondo per, poi, scoprire che la cosa meno efficiente è la Umanità stessa.