<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=1925163537722152&amp;ev=PageView&amp;noscript=1">

4ward Blog

Intelligenza artificiale: presente o futuro della tecnologia?

By 4ward 02 agosto, 2017

Come riuscire a orientarsi tra le diverse incarnazioni dell’intelligenza artificiale e come sfruttare da subito queste nuove tecnologie.

Intelligenza artificiale, machine learning, deep learning: tre concetti sempre più diffusi  che costituiscono la nuova frontiera dell'informatica. Tra suggestioni fantascientifiche e tecnologia reale, spesso c'è una certa confusione per comprendere cosa sia già  realtà, e di conseguenza ampiamente sfruttabile per migliorare il proprio lavoro o creare un nuovo business, e cosa invece solo una speranza per il prossimo futuro.

 

Cos'è l'intelligenza artificiale

Riuscire a risalire con precisione alla prima definizione di intelligenza artificiale (AI) può essere una sfida: decidere se il primo a concettualizzare questo principio sia stato Leibniz, Babbage, o più recentemente il celebre Alan Turing è questione da storici più che da informatici. Forse il momento migliore per stabilire la nascita del moderno concetto di AI è un convegno tenutosi al Dartmouth College nel 1956: fu in quella data che si gettarono le basi per tutta la ricerca scientifica che ancora oggi porta avanti lo sviluppo di questa disciplina. Quella che venne definita in quel convegno, tuttavia, fu una definizione piuttosto ampia di intelligenza artificiale: si tratta di una intelligenza artificiale generale, ovvero una replica digitale delle capacità di un essere umano. Una macchina universale in grado di affrontare le sfide quotidiane senza alcun tipo di assistenza umana, dotata della capacità di analizzare ciascun problema, imparare, scegliere il metodo di risoluzione migliore caso per caso.

 

intelligenza-artificiale-film-784x523.jpg

Nei romanzi o al cinema questo tipo di AI ha trovato ampio spazio: basti pensare ai robot di Asimov e Dick, che in alcuni casi risultano indistinguibili dai loro compagni in carne e ossa, oppure al celeberrimo androide C-3PO di Star Wars. O ancora il T-800 della saga Terminator, interpretato da Arnold Schwarzenegger: tutti questi robot avevano in comune la possibilità di riconoscere il proprio interlocutore, comprendere il contesto, scegliere che risposta dare e mettere in pratica azioni in totale autonomia.

 

La nascita del Machine Learning

A oggi quel tipo di intelligenza artificiale universale non è ancora stata realizzata. Esiste senz'altro la possibilità che ciò accada nei prossimi decenni, ma siamo ancora lontani da quel risultato. Quanto invece è stato possibile realizzare, grazie soprattutto alle potenzialità crescenti dell'hardware, è una sorta di intelligenza artificiale ristretta: applicare il principio della macchina che risolve i problemi a un dominio chiuso e limitato della conoscenza, affrontando problemi strettamente definiti e compiti prestabiliti.

È in questo contesto che nasce il Machine Learning: i ricercatori cercavano un metodo per trasferire la capacità degli esseri umani di imparare e di mettere in pratica quanto appreso, e vennero quindi messi insieme diversi sistemi per far sì che ciò fosse possibile. Negli anni si sono succeduti diversi approcci: alberi decisionali, programmazione logica induttiva, clustering, reti bayesiane, reti neurali.

Quello che lo sviluppatore fa quando crea un sistema basato sul Machine Learning non è scrivere un algoritmo per risolvere un problema, bensì fornire alla macchina la capacità di imparare a partire da un archivio di informazioni specifiche rispetto ad un dato argomento. La macchina sfrutta un meccanismo basato sul calcolo delle probabilità per stabilire il risultato dell'elaborazione: in un certo senso ricorda un po' quello che fanno gli esseri umani, sebbene naturalmente le macchine siano vincolate ad un approccio squisitamente numerico  e razionale.

Uno dei settori in cui questo approccio ha avuto successo è quello del riconoscimento di oggetti e persone nelle immagini (computer vision), e ci sono molti esempi di applicazioni pratiche. Basti pensare a Facebook che è in grado di riconoscere i visi dei soggetti ritratti in una foto, e in taluni casi anche di suggerire di chi si tratta, oppure a Cortana Analytics Suite che è in grado di riconoscere i soggetti di un’immagine e raggruppare tutte le immagini che contengono lo stesso tipo di soggetto. La stessa tecnologia, poi, viene impiegata anche per realizzare i prototipi di automobili a guida autonoma: quelle in grado di riconoscere i pedoni, i segnali stradali e gli altri veicoli presenti su strada, regolandosi di conseguenza.

intelligenza-artificiale-machine-learning-deep.jpg

L'avvento del Deep Learning

Il vero salto di qualità è stato compiuto quando le enormi capacità di calcolo delle GPU sono state rese disponibili all'interno dei datacenter e nei grandi supercomputer. È stato allora che si è sviluppato il concetto di Deep Learning. I sistemi di apprendimento sono stati migliorati e "parallelizzati", ovvero è stata data alla macchina la possibilità di analizzare enormi quantità di informazioni, in tempi relativamente brevi, grazie alla potenza di calcolo fornita da una nuova generazione di processori, dalla flessibilità computazionale del Cloud e alla disponibilità di una fonte in crescita esponenziale di informazioni: Internet.

È ormai passato alla storia il celebre esperimento condotto nel 2012 da Andrew Yng per conto di Google: 16.000 processori impiegati per mettere assieme una rete neurale con oltre 1 miliardo di connessioni (sulla falsa riga di quanto fanno i neuroni nel cervello umano, uniti tra loro dalle sinapsi), a cui è stato dato in pasto un database di 10 milioni di immagini tratte da video di YouTube. Il risultato finale fu un computer capace di riconoscere un gatto ritratto in fotografia con una precisione fino ad allora impensabile: al computer non venne mai insegnato cosa fosse e cosa non fosse un gatto, ma solo fornita la capacità di analizzare un'enorme mole di dati estrapolando dei concetti di conseguenza.

 

L'AI nella vita di tutti i giorni: i Cognitive Service di Azure

Trasferire le capacità di Machine Learning e Deep Learning nella vita di un’azienda può rivelarsi un compito complesso: non tutti hanno tempo e risorse per mettere insieme un supercomputer capace di analizzare un database gigantesco e anche assemblare un archivio di informazioni necessario ad addestrare la macchina può rivelarsi complicato. Per fortuna esiste la possibilità di sfruttare il lavoro compiuto da altri ed includerlo nel proprio flusso di lavoro: Microsoft in particolare ha incluso nel proprio servizio cloud computing Azure una serie di API, che permettono di richiamare, con poche righe di codice, funzioni di AI che hanno richiesto ingenti quantità di lavoro per essere sviluppate e che sono a disposizione dei clienti in pochi clic.

 

microsoft-cognitive-service.jpg

Sono cinque le aree attorno a cui ruotano le capacità di Machine Learning di Azure: Visione artificiale, Sintesi vocale, Linguaggio, Conoscenza e Ricerca. Si può richiamare la Emotion API per tradurre le espressioni dei visi contenuti in una fotografia in emozioni chiaramente catalogate, oppure sfruttare le Bing Speech API per trasformare il parlato in parola scritta o per tradurre in tempo reale una conversazione tra due interlocutori umani. Ci sono API destinate alla catalogazione del materiale di una ricerca scientifica,  per migliorare il search all’interno di database pubblici e privati, o per identificare persone e oggetti all’interno delle immagini e dei video.

Il vantaggio di sfruttare i Cognitive Service di Microsoft Azure è quello di poter impiegare le potenzialità fin qui descritte di AI, Machine Learning e Deep Learning, in modo semplice e veloce: non serve progettare e addestrare un sistema di intelligenza artificiale partendo da zero, ma ci si può appoggiare ai servizi già pronti sviluppati da Microsoft, è quindi facile intuire come i tempi ed i costi di sviluppo e manutenzione siano nettamente ottimizzati.

 

Esempi pratici

Quali esempi pratici possiamo ipotizzare grazie all’introduzione dei Cognitive Services? Rispondere alla domanda richiederebbe tantissimo visto la vastità di applicazioni che questi strumenti introducono nel già complesso mondo della digital transformation, ma cerchiamone alcuni di veloce applicazione.

Partiamo dal concetto che la quantità di dati digitali presenti oggi ed in crescita esponenziale pone l’uomo di fronte ad una oggettiva incapacità di poter tratte benefici dai dati senza l’ausilio di strumenti di automazione e di intelligenza artificiale che aiutino l'uomo, senza, sia ben chiaro, sostituirlo. Pensiamo alla quantità di video che ogni giorno telecamere di tutto il mondo registrano: analizzare ad esempio per autorità di pubblica sicurezza, gli spostamenti di un sospetto, richiedono troppe risorse se demandate ad una attività manuale. Oggi però possiamo fornire al sistema una serie di foto e verificare grazie all’analisi di uno stream video se quella persona appare: pensate alle possibili applicazioni in termini di pubblica sicurezza!

 

AI-1.jpg

Passando ad un tema più legato alla vita di tutti i giorni, pensiamo invece al retail del futuro, che permette di analizzare le persone che si fermano davanti ad una vetrina e capirne sesso, umore, altezza e fornire magari un suggerimento su cosa acquistare oppure semplicemente valutare le reazioni ad un prodotto o una promozione: tutto questo è già possibile!

 

AI-2.jpg

L’applicazione di questi modelli può davvero migliorare il modo di vivere e lavorare di tutti noi, indipendentemente dal settore a cui ci rivolgiamo:

AI-3.jpg

Il viaggio è appena iniziato ma già le applicazioni sono molteplici. Non resta che intraprenderlo grazie al supporto di competenze specifiche di chi può aiutarti ad ANALIZZARE la strategia, COMPRENDERE le tue esigenze e mapparle sulle tecnologie, CREARE valore e vantaggio competitivo per l’azienda, come facciamo in 4ward.

“At Microsoft, we are focused on empowering both people and organizations, by democratizing access to intelligence to help solve our most pressing challenges. To do this, we are infusing AI into everything we deliver across our computing platforms and experiences.” – Satya Nadella, 2016

 

Vuoi scoprire come l’intelligenza artificiale può aiutarti ad aumentare produttività, sicurezza ed efficienza? Contattaci!

 Contattaci per saperne di più 4ward