L’ap­pren­di­men­to au­to­ma­ti­co è un sot­to­cam­po dell’in­tel­li­gen­za ar­ti­fi­cia­le, dove i modelli com­pu­ta­zio­na­li ap­pren­do­no dai dati per fare pre­vi­sio­ni o prendere decisioni senza pro­gram­ma­zio­ne esplicita. Non è solo in­te­res­san­te per la scienza e per aziende IT come Google o Microsoft. Anche il mondo del marketing online può tra­sfor­mar­si grazie agli sviluppi dell’in­tel­li­gen­za ar­ti­fi­cia­le.

Cos’è l’ap­pren­di­men­to au­to­ma­ti­co?

Es­sen­zial­men­te le macchine, i computer e i programmi fun­zio­na­no solamente nel modo in cui è stato per loro pre­ce­den­te­men­te stabilito: “In caso di A, allora fai B”. Le nostre aspet­ta­ti­ve nei confronti dei moderni sistemi di computer sono sempre più elevate; cio­no­no­stan­te i pro­gram­ma­to­ri e le pro­gram­ma­tri­ci non sono in grado di prevedere tutti i casi pensabili e di con­se­guen­za insegnare ai computer tutte le ri­spet­ti­ve possibili soluzioni. Per questo motivo è in­di­spen­sa­bi­le che il software sia in grado di prendere decisioni in autonomia e di reagire in maniera ap­pro­pria­ta a si­tua­zio­ni ignote.

A questo scopo devono però essere presenti degli algoritmi che con­sen­to­no al programma di ap­pren­de­re. Ciò significa che il primo passo consiste nel riempire la macchina di dati; suc­ces­si­va­men­te il computer deve capirne la struttura e rea­liz­za­re un modello così da essere poi in grado di fare delle as­so­cia­zio­ni. Proprio in questo consiste l’ap­pren­di­men­to au­to­ma­ti­co.

Quando si parla di sistemi au­toap­pren­den­ti si pensa anche a termini a essi im­pa­ren­ta­ti: è im­por­tan­te co­no­scer­li per avere una migliore com­pren­sio­ne di tutto il mondo del machine learning.

AI Model Hub
La tua piat­ta­for­ma IA mul­ti­mo­da­le e sicura
  • Con­for­mi­tà al GDPR e hosting sicuro in Europa
  • Potenti modelli basati sul­l'in­tel­li­gen­za ar­ti­fi­cia­le
  • Assenza di vendor lock-in grazie all'open source

In­tel­li­gen­za ar­ti­fi­cia­le

La ricerca sull’in­tel­li­gen­za ar­ti­fi­cia­le (IA) tenta di creare macchine che siano in grado di agire come un essere umano: i computer e i robot devono ana­liz­za­re il proprio ambiente e suc­ces­si­va­men­te prendere la decisione migliore. Devono quindi com­por­tar­si in maniera in­tel­li­gen­te, secondo i criteri degli esseri umani. E qui sorge il problema della de­fi­ni­zio­ne di tali criteri, anche se ad­di­rit­tu­ra non è ancora ben chiaro secondo quali parametri dovremmo valutare la nostra stessa in­tel­li­gen­za. At­tual­men­te l’in­tel­li­gen­za ar­ti­fi­cia­le, o ciò che viene con­si­de­ra­ta tale, non riesce a simulare un essere umano per intero (inclusa l’in­tel­li­gen­za emotiva). Piuttosto si isolano degli aspetti parziali per riuscire a risolvere de­ter­mi­na­ti compiti. Ciò viene co­mu­ne­men­te definita come in­tel­li­gen­za ar­ti­fi­cia­le debole.

Dal 2022, i sistemi con l’IA ge­ne­ra­ti­va come l’as­si­sten­te IA ChatGPT hanno acquisito grande im­por­tan­za. Questi si basano su tra­sfor­ma­to­ri in grado di generare testi, immagini o codici sulla base di enormi quantità di dati. Tuttavia, si tratta ancora di sistemi spe­cia­liz­za­ti che non pos­sie­do­no una vera in­tel­li­gen­za generale.

Reti neurali

La neu­roin­for­ma­ti­ca lavora alla pro­get­ta­zio­ne di computer basati sul modello del cervello umano. Questa branca della ricerca sull’in­tel­li­gen­za ar­ti­fi­cia­le considera i sistemi nervosi come da un punto di vista astratto, cioè liberi delle loro proprietà bio­lo­gi­che e limitati al loro modo di fun­zio­na­men­to. Le reti neurali ar­ti­fi­cia­li sono prin­ci­pal­men­te dei pro­ce­di­men­ti ma­te­ma­ti­ci astratti più che ma­ni­fe­sta­zio­ni reali. Viene dunque tessuta una rete di neuroni composta da funzioni ma­te­ma­ti­che o algoritmi e che, come un cervello umano, è in grado di far fronte a compiti complessi. I col­le­ga­men­ti tra i neuroni sono di­ver­sa­men­te potenti e hanno l’abilità di adattarsi ai problemi.

Il progresso delle reti neurali ha portato all’ascesa del deep learning. Si tratta di reti neurali complesse con molti strati (layer) che oggi dominano.

Big data

L’espres­sio­ne “Big Data” fa sem­pli­ce­men­te ri­fe­ri­men­to a un’enorme quantità di dati. Tuttavia, non c’è un punto definito a partire dal quale si smette di parlare di dati e si inizia a parlare di Big Data. Il fatto che questo fenomeno negli ultimi anni goda di grande risonanza mediatica è dovuto all’origine di questa tipologia di dati: in molti casi il flusso di in­for­ma­zio­ni è co­sti­tui­to da dati utente (interessi, profili degli spo­sta­men­ti, dati vitali) rilevati da aziende come Google, Amazon e Facebook per adattarsi più pre­ci­sa­men­te ai propri utenti. Simili quantità di dati non possono più essere valutate in maniera sod­di­sfa­cen­te dai sistemi di computer tra­di­zio­na­li: del resto un software del genere riesce a trovare solamente quello che l’utente cerca. Per questo motivo sono necessari dei sistemi au­toap­pren­den­ti che sono in grado di scoprire col­le­ga­men­ti ignoti fino a quel momento.

Data mining

Con data mining si definisce l’analisi dei Big Data. La ri­le­va­zio­ne dei meri dati ha di per sé un valore relativo. Tuttavia, l’accumulo di in­for­ma­zio­ni diventa in­te­res­san­te nel momento in cui si estrag­go­no e si valutano le ca­rat­te­ri­sti­che rilevanti, in maniera analoga a come si estrae l’oro. Il data mining si dif­fe­ren­zia dall’ap­pren­di­men­to au­to­ma­ti­co perché si basa sull’ap­pli­ca­zio­ne di modelli ri­co­no­sciu­ti, invece di trovarne di nuovi. Le me­to­do­lo­gie del data mining includono, ad esempio, l’analisi dei cluster, gli alberi de­ci­sio­na­li, i metodi di re­gres­sio­ne e le analisi delle as­so­cia­zio­ni. Il data mining oggi è spesso parte dei sistemi di Business In­tel­li­gen­ce o viene uti­liz­za­to per l’analisi pre­dit­ti­va per prevedere il com­por­ta­men­to del cliente o le tendenze di mercato.

I metodi di ap­pren­di­men­to au­to­ma­ti­co a confronto

Es­sen­zial­men­te i ri­cer­ca­to­ri e le ri­cer­ca­tri­ci fanno una di­stin­zio­ne tra su­per­vi­sed learning (ap­pren­di­men­to su­per­vi­sio­na­to), un­su­per­vi­sed learning (ap­pren­di­men­to non su­per­vi­sio­na­to) e deep learning. Gli algoritmi uti­liz­za­ti a questo scopo sono molto diversi tra loro.

Ap­pren­di­men­to su­per­vi­sio­na­to

Nell’ap­pren­di­men­to su­per­vi­sio­na­to o su­per­vi­sed learning il sistema è ali­men­ta­to con degli esempi. Gli svi­lup­pa­to­ri e le svi­lup­pa­tri­ci indicano a quale valore associare l’in­for­ma­zio­ne cor­ri­spon­den­te, ad esempio se debba ap­par­te­ne­re alla categoria A piuttosto che alla B. A partire da ciò il sistema au­toap­pren­den­te deduce de­ter­mi­na­te in­for­ma­zio­ni e traccia un modello che sarà in grado di ri­co­no­sce­re anche in futuro, così riuscirà a ma­neg­gia­re meglio i dati sco­no­sciu­ti. Lo scopo prin­ci­pa­le è di mi­ni­miz­za­re sempre più la quota di errori.

Un esempio noto di ap­pren­di­men­to sor­ve­glia­to sono i filtri spam: sulla base di de­ter­mi­na­te ca­rat­te­ri­sti­che il sistema decide se l’e-mail debba finire nella casella di posta in entrata oppure se in quella dello spam. Se il sistema dovesse fare un errore, in seguito è possibile impostare di nuovo ma­nual­men­te i parametri a cui il filtro dovrà fare ri­fe­ri­men­to in futuro. In questo modo il software otterrà risultati sempre migliori.

Ap­pren­di­men­to non su­per­vi­sio­na­to

Per quanto riguarda l’un­su­per­vi­sed learning, l’ap­pren­di­men­to non su­per­vi­sio­na­to, il programma tenta di ri­co­no­sce­re per conto suo i modelli ri­cor­ren­ti. Per farlo ha ad esempio la pos­si­bi­li­tà di servirsi del clu­ste­ring: dalla raccolta di tutti i dati seleziona quindi un elemento le cui ca­rat­te­ri­sti­che sono ana­liz­za­te e con­fron­ta­te con quelle già esaminate. Se il programma ha già ana­liz­za­to elementi simili, allora l’oggetto attuale sarà aggiunto a questi; in caso contrario sarà invece isolato.

I sistemi che si basano sull’ap­pren­di­men­to non su­per­vi­sio­na­to sono attuati anche nelle reti neurali. Si trovano degli esempi di ap­pli­ca­zio­ne nella sicurezza di rete: un sistema au­toap­pren­den­te è qui in grado di ri­co­no­sce­re un com­por­ta­men­to anormale. No­no­stan­te non sia ad esempio possibile associare un cy­be­rat­tac­co a un gruppo noto, il programma è comunque in grado di ri­co­no­sce­re la presenza di una minaccia e provvede quindi a lanciare l’allarme.

Oltre a queste due direzioni prin­ci­pa­li esistono anche l’ap­pren­di­men­to par­zial­men­te su­per­vi­sio­na­to (semi-su­per­vi­sed learning), l’ap­pren­di­men­to per rinforzo (rein­for­ce­ment learning), l’ap­pren­di­men­to attivo (active learning) e l’ap­pren­di­men­to auto-su­per­vi­sio­na­to. Questi metodi ap­par­ten­go­no all’ap­pren­di­men­to su­per­vi­sio­na­to e si di­stin­guo­no per natura e modalità di coin­vol­gi­men­to degli utenti. La variante più rilevante oggi è il co­sid­det­to ap­pren­di­men­to auto-su­per­vi­sio­na­to, in cui i sistemi generano au­to­no­ma­men­te le attività di­dat­ti­che, senza coin­vol­gi­men­to dell’utente.

Deep learning

A dif­fe­ren­za degli algoritmi di ap­pren­di­men­to au­to­ma­ti­co classici come gli alberi de­ci­sio­na­li o le macchine a vettori di supporto, il deep learning utilizza reti neurali mul­ti­stra­to per elaborare volumi di dati più complessi. La com­ples­si­tà di questi dati è dovuta al fatto che sono in­for­ma­zio­ni naturali, ovvero quelle che compaiono nel ri­co­no­sci­men­to vocale, del lin­guag­gio scritto o del viso. Per gli esseri umani i dati naturali sono facili da elaborare, mentre non lo sono per una macchina, poiché sono difficili da as­si­mi­la­re ma­te­ma­ti­ca­men­te.

Il deep learning e le reti neurali ar­ti­fi­cia­li sono stret­ta­men­te connessi tra loro. Il modo in cui si allenano le reti neurali, può essere definito come deep learning: deep (in italiano: profondo) perché la rete dei neuroni è or­ga­niz­za­ta su diversi livelli ge­rar­chi­ci. Il primo livello è co­sti­tui­to da neuroni in entrata che rilevano i dati, iniziano con la loro analisi e inviano i risultati al prossimo nodo neurale. Alla fine le in­for­ma­zio­ni, di volta in volta sempre più precise, rag­giun­go­no il livello di uscita e la rete emette un valore. I livelli, nel complesso molto numerosi, che si trovano tra entrata e uscita, sono chiamati livelli nascosti (“hidden layers”).

Come funziona l’ap­pren­di­men­to au­to­ma­ti­co nel marketing?

Og­gi­gior­no l’ap­pren­di­men­to au­to­ma­ti­co è già di grande utilità per il marketing; al momento sono prin­ci­pal­men­te le grandi aziende a servirsi di questa tec­no­lo­gia, prima di tutte Google. I sistemi au­toap­pren­den­ti sono ancora così nuovi che non si possono ancora sem­pli­ce­men­te ac­qui­sta­re come prodotti out of the box. Al loro posto le grandi aziende di internet svi­lup­pa­no i propri sistemi e hanno quindi un ruolo pio­nie­ri­sti­co in questo ambito. Siccome alcune no­no­stan­te l’interesse com­mer­cia­le seguono comunque un approccio open source e col­la­bo­ra­no con la ricerca in­di­pen­den­te, i progressi nel campo del machine learning sono sempre più rapidi.

Analisi dei dati e pro­no­sti­ci

Accanto a quello creativo, il marketing ha anche sempre un aspetto analitico: le sta­ti­sti­che sul com­por­ta­men­to degli utenti giocano un ruolo im­por­tan­te nella decisione di de­ter­mi­na­te misure pub­bli­ci­ta­rie. So­li­ta­men­te vale la regola che più è grande la quantità di dati, più in­for­ma­zio­ni si possono estra­po­la­re. I programmi au­toap­pren­den­ti ri­co­no­sco­no i modelli ri­cor­ren­ti e sono in grado di fare delle pre­vi­sio­ni at­ten­di­bi­li, al contrario degli esseri umani, i quali sono spesso prevenuti nei confronti dei dati.

So­li­ta­men­te chi analizza i dati parte con delle aspet­ta­ti­ve che finiscono per essere dei veri e propri pre­giu­di­zi, pra­ti­ca­men­te ine­vi­ta­bi­li per gli esseri umani, e che sono anche spesso motivo di di­stor­sio­ne. Maggiori sono le quantità di dati prese in esame dagli analisti, più forti sono le di­ver­gen­ze nell’in­ter­pre­ta­zio­ne dei dati. Anche se le stesse macchine in­tel­li­gen­ti possono avere dei pre­giu­di­zi perché sono state in­con­sa­pe­vol­men­te istruite dagli stessi esseri umani ad averne, quando si tratta di fatti concreti agiscono con maggiore og­get­ti­vi­tà rispetto agli esperti in carne e ossa. Si può quindi dire che le macchine for­ni­sco­no analisi più af­fi­da­bi­li.

Vi­sua­liz­za­zio­ne

I sistemi au­toap­pren­den­ti mi­glio­ra­no e sem­pli­fi­ca­no la rap­pre­sen­ta­zio­ne dei risultati di analisi, come accade nella automated data vi­sua­li­za­tion, una tec­no­lo­gia in cui il computer sceglie in autonomia la corretta rap­pre­sen­ta­zio­ne di dati e in­for­ma­zio­ni. Ciò è par­ti­co­lar­men­te im­por­tan­te perché consente agli esseri umani di capire quello che la macchina ha scoperto e previsto. Con enormi flussi di dati diventa difficile rap­pre­sen­ta­re da soli gli esiti delle va­lu­ta­zio­ni. Per questo motivo anche la vi­sua­liz­za­zio­ne deve avvenire tramite calcoli dei computer.

Per­so­na­liz­za­zio­ne e design ge­ne­ra­ti­vo

Tuttavia, il machine learning può anche eser­ci­ta­re un’influenza sulla creazione di contenuti: come accade ad esempio nel design ge­ne­ra­ti­vo. Anziché pro­get­ta­re lo stesso percorso per tutti gli utenti, i sistemi dinamici sono in grado di creare espe­rien­ze per­so­na­liz­za­te grazie all’ap­pren­di­men­to au­to­ma­ti­co. No­no­stan­te il contenuto vi­sua­liz­za­to su un sito web sia ancora fornito da co­py­w­ri­ter e designer, tocca al sistema il compito di integrare i com­po­nen­ti specifici per l’utente. Nel frattempo, i sistemi au­toap­pren­den­ti vengono uti­liz­za­ti anche nella pro­get­ta­zio­ne o per redigere i contenuti: ad esempio con il Project Dream­cat­cher, un in­no­va­ti­vo sistema CAD nato dal gruppo di ricerca dell’azienda Autodesk, è possibile fare pro­get­ta­re dei com­po­nen­ti a una macchina. I modelli lin­gui­sti­ci di grandi di­men­sio­ni (LLM) come ChatGPT possono inoltre creare testi per siti web per­so­na­liz­za­ti per gruppi di utenti.

Chatbot in­tel­li­gen­te ed ela­bo­ra­zio­ne lin­gui­sti­ca

Si può uti­liz­za­re il machine learning anche per or­ga­niz­za­re meglio i chatbot. Molte aziende impiegano già oggi dei programmi che portano a termine una parte del supporto clienti grazie all’aiuto di un chatbot. Tuttavia, in molti casi gli utenti si scocciano in fretta di avere a che fare con dei robot comuni. Invece, un chatbot che si basa su un sistema au­toap­pren­den­te e che ha un buon ri­co­no­sci­men­to vocale (ela­bo­ra­zio­ne del lin­guag­gio naturale) riesce a tra­smet­te­re ai clienti la sen­sa­zio­ne di stare veramente co­mu­ni­can­do con una persona e quindi anche a passare il test di Turing.

Rac­co­man­da­zio­ni per­so­na­liz­za­te

Amazon e Netflix di­mo­stra­no un’ulteriore vantaggio dell’ap­pren­di­men­to au­to­ma­ti­co per i marketer: le rac­co­man­da­zio­ni. Tra gli im­por­tan­ti fattori di successo di queste grandi aziende si ritrova anche la capacità di prevedere ciò che l’utente de­si­de­re­rà avere. I sistemi au­toap­pren­den­ti sanno con­si­glia­re all’utente altri prodotti in­di­pen­den­te­men­te dai dati raccolti. Ciò che prima era possibile fare solamente su grande scala (“Ai nostri clienti piace il prodotto A, per cui la maggior parte di loro sarà in­te­res­sa­ta anche al prodotto B.”), ora è possibile anche su scala più ridotta grazie ai programmi moderni (“Alla cliente X sono piaciuti i prodotti A, B e C, per cui pro­ba­bil­men­te sarà in­te­res­sa­ta anche al prodotto D.”).

Rias­su­men­do si può con­sta­ta­re che i sistemi au­toap­pren­den­ti in­fluen­ze­ran­no quattro diversi aspetti del marketing online:

  • Quantità: i programmi che fun­zio­na­no con l’ap­pren­di­men­to au­to­ma­ti­co e che sono stati istruiti bene riescono a elaborare enormi quantità di dati e a fare quindi delle pre­vi­sio­ni per il futuro.
  • Velocità: le analisi ne­ces­si­ta­no di tempo se fatte ma­nual­men­te. Tramite i sistemi au­toap­pren­den­ti la velocità del lavoro aumenta e si può quindi reagire più pron­ta­men­te alle modifiche.
  • Au­to­ma­tiz­za­zio­ne: at­tra­ver­so l’ap­pren­di­men­to au­to­ma­ti­co è più facile au­to­ma­tiz­za­re i pro­ce­di­men­ti. Siccome i sistemi moderni hanno la capacità di adattarsi au­to­no­ma­men­te a nuove cir­co­stan­ze con l’aiuto del machine learning, anche complessi processi di au­to­ma­tiz­za­zio­ne diventano possibili.
  • Per­so­na­liz­za­zio­ne: i software riescono ad assistere in­nu­me­re­vo­li clienti. Dato che i sistemi au­toap­pren­den­ti rilevano ed elaborano dati dal singolo utente, possono occuparsi di questi clienti in maniera per­so­na­liz­za­ta.

Altri campi di ap­pli­ca­zio­ne dei sistemi au­toap­pren­den­ti

Il marketing non è il solo ad aver trovato diversi impieghi per il machine learning: i sistemi au­toap­pren­den­ti sono efficaci anche in molti altri ambiti della vita umana. In parte questi con­tri­bui­sco­no ul­te­rior­men­te al progresso di scienza e tec­no­lo­gia. In alcuni casi vengono sem­pli­ce­men­te uti­liz­za­ti sotto forma di gadget più o meno grandi per sem­pli­fi­ca­re la vita di ogni giorno. I campi di ap­pli­ca­zio­ne pre­sen­ta­ti sono solo alcuni degli esempi possibili, del resto non è da escludere che in un futuro non troppo lontano l’ap­pren­di­men­to au­to­ma­ti­co sarà presente in tutti gli aspetti della nostra vita.

Scienza

Ciò che vale per il marketing ha un si­gni­fi­ca­to ancora più im­por­tan­te nella scienza. L’ela­bo­ra­zio­ne in­tel­li­gen­te dei big data al­leg­ge­ri­sce no­te­vol­men­te il lavoro della ricerca empirica. Ad esempio, grazie ai sistemi au­toap­pren­den­ti i fisici delle par­ti­cel­le riescono a rilevare e a elaborare molti più dati e a con­sta­ta­re eventuali anomalie. Ma l’ap­pren­di­men­to au­to­ma­ti­co può essere di aiuto anche nella medicina: già al giorno d’oggi alcuni medici si servono dell’in­tel­li­gen­za ar­ti­fi­cia­le per fare diagnosi e terapie. Inoltre, l’ap­pren­di­men­to au­to­ma­ti­co è utile anche per la prognosi di diabete o infarti.

Robotica

Og­gi­gior­no i robot sono ormai on­ni­pre­sen­ti so­prat­tut­to nelle fabbriche: vengono ad esempio impiegati nelle pro­du­zio­ni di massa per au­to­ma­tiz­za­re passaggi la­vo­ra­ti­vi sempre uguali. Tuttavia, non si tratta di veri e propri sistemi in­tel­li­gen­ti, visto che sono pro­gram­ma­ti solo per eseguire un solo specifico passaggio. Quando i sistemi au­toap­pren­den­ti vengono uti­liz­za­ti nella robotica devono essere in grado di risolvere nuovi compiti. Na­tu­ral­men­te questi progressi sono di grande interesse anche per altri settori: dai viaggio nello spazio ai lavori domestici, i robot dotati di in­tel­li­gen­za ar­ti­fi­cia­le possono entrare in azione in numerosi ambiti.

Traffico

Le au­to­vet­tu­re autonome sono una grande vetrina per il machine learning. Solo l’ap­pren­di­men­to au­to­ma­ti­co fa sì che le au­to­mo­bi­li si muovano in maniera autonoma e sicura nel traffico, invece che solo nei percorsi di prova. Non essendo possibile pro­gram­ma­re tutte le si­tua­zio­ni possibili, è in­di­spen­sa­bi­le che i veicoli autonomi facciano ri­fe­ri­men­to a macchine in­tel­li­gen­ti. Ma i sistemi au­toap­pren­den­ti non si limitano a ri­vo­lu­zio­na­re i mezzi di trasporto nel traffico: gli algoritmi in­tel­li­gen­ti, ad esempio sotto forma di reti neurali ar­ti­fi­cia­li, ana­liz­za­no il traffico e svi­lup­pa­no modi più ef­fi­cien­ti di gestirlo, come tramite l’ac­cen­sio­ne in­tel­li­gen­te di semafori.

Internet

Già ora l’ap­pren­di­men­to au­to­ma­ti­co gioca un ruolo si­gni­fi­ca­ti­vo per internet. Un esempio sono i filtri spam: at­tra­ver­so un costante ap­pren­di­men­to i filtri si affinano e riescono a ri­co­no­sce­re sempre meglio le e-mail in­de­si­de­ra­te così da bandirle dalla casella di posta in entrata in maniera sempre più af­fi­da­bi­le. Lo stesso vale anche per il contrasto di virus e malware: grazie alle nuove tec­no­lo­gie in­tel­li­gen­ti i computer sono più protetti da software dannosi. Anche gli algoritmi di ranking dei motori di ricerca, primo fra tutti RankBrain di Google, sono sistemi au­toap­pren­den­ti. Anche se l’algoritmo non capisce l’in­se­ri­men­to dell’utente (perché finora non è mai stato cercato da nessuno), può dedurre e fare una proposta che potrebbe essere inerente alla richiesta.

As­si­sten­ti personali

Anche tra le proprie quattro mura i computer in­tel­li­gen­ti diventano sempre più presenti: ecco che le normali case diventano quindi smart homes , case in­tel­li­gen­ti. L’azienda Moley Robotics, ad esempio, sviluppa una cucina in­tel­li­gen­te dotata di bracci meccanici che preparano i pasti. Anche gli as­si­sten­ti personali come Google Home e Amazon Echo, grazie ai quali è possibile mo­ni­to­ra­re impianti e di­spo­si­ti­vi presenti nella propria casa, si servono delle tec­no­lo­gie di machine learning per com­pren­de­re al meglio le esigenze dei propri utenti. Ma molte persone non ri­nun­cia­no al proprio as­si­sten­te nemmeno quando sono in giro: Siri, Cortana e As­si­sten­te Google con­sen­to­no agli utenti di dare comandi e fare domande ai propri smart­pho­ne tramite comando vocale.

Giochi

Sin dall’inizio della ricerca sull’in­tel­li­gen­za ar­ti­fi­cia­le, la capacità delle macchine di giocare è sempre stato un grande stimolo per i ri­cer­ca­to­ri e le ri­cer­ca­tri­ci. I sistemi au­toap­pren­den­ti sono stati messi alla prova negli scacchi, nella dama e anche nel go, il noto gioco da tavolo cinese tra i più complessi del mondo, sfidati da con­cor­ren­ti umani. Anche gli svi­lup­pa­to­ri e le svi­lup­pa­tri­ci di vi­deo­gio­chi ricorrono al machine learning per rea­liz­za­re progetti più ac­cat­ti­van­ti. I designer di giochi hanno la pos­si­bi­li­tà di uti­liz­za­re l’ap­pren­di­men­to au­to­ma­ti­co per creare un un’espe­rien­za di gioco più equi­li­bra­ta possibile e per fare in modo che gli avversari virtuali si adattino meglio al com­por­ta­men­to dei giocatori umani.

La storia dei sistemi au­toap­pren­den­ti

I robot e le macchine au­to­ma­ti­che fanno parte della vita degli esseri umani già da diverse centinaia di secoli. Già diversi autori della let­te­ra­tu­ra romantica avevano af­fron­ta­to la tematica dell’in­tel­li­gen­za ar­ti­fi­cia­le e ancora oggi i robot sono i pro­ta­go­ni­sti af­fa­sci­nan­ti di libri, film e vi­deo­gio­chi. La relazione dell’essere umano con la macchina pensante ha sempre oscillato tra timore e fascino.

Gli studi veri e propri sul machine learning sono iniziati solo negli anni ‘50: un’epoca in cui i computer erano ancora in fasce e l’in­tel­li­gen­za ar­ti­fi­cia­le ancora un sogno lontano. Se nei due secoli pre­ce­den­ti scien­zia­ti come Thomas Bayes, Adrien-Marie Legendre e Pierre-Simon Laplace avevano gettato le basi per le ricerche future, solo con il lavoro di Alan Turing il concetto di una macchina in grado di ap­pren­de­re si è fi­nal­men­te con­cre­tiz­za­ta.

Citazione

“In tal caso si dovrebbe ammettere che l’avan­za­men­to della macchina non era stato previsto al momento dell’in­se­ri­men­to delle istru­zio­ni originali. Sarebbe come dire che un allievo ha imparato molto dal maestro ma ha aggiunto ancora di più con il proprio lavoro. Quando ciò accade si è obbligati a ri­co­no­sce­re che la macchina mostra segni di in­tel­li­gen­za.” Alan Turing durante una lezione nel 1947. (Citato da B. E. Carpenter e R. W. Doran (eds.), A. M. Turing’s Ace Report of 1946 and Other Papers)

Nel 1950 Turing sviluppò il test di Turing, noto ancora oggi: si tratta di una sorta di gioco in cui il computer finge di essere un umano con un altro essere umano. Se la macchina riesce a con­vin­ce­re l’essere umano di stare dia­lo­gan­do con una persona in carne e ossa, allora ha superato il test. Appena due anni dopo Arthur Samuel sviluppò un computer che sapeva giocare a dama e che mi­glio­ra­va le sue abilità a ogni partita: il programma aveva la capacità di ap­pren­de­re. Nel 1957 Frank Ro­sen­blatt sviluppò Per­zep­tron, il primo algoritmo che poteva essere istruito, quindi in sostanza una rete neurale ar­ti­fi­cia­le.

Nel frattempo, le grandi aziende sono diventate le prin­ci­pa­li fi­nan­zia­tri­ci dello sviluppo dell’ap­pren­di­men­to au­to­ma­ti­co: con Watson, ad esempio, IBM ha svi­lup­pa­to un computer che possiede un immenso archivio di in­for­ma­zio­ni ed è in grado di ri­spon­de­re a domande che vengono poste in un lin­guag­gio naturale. Google e Meta impiegano il machine learning per capire meglio i propri utenti e offrire loro più funzioni.

Vai al menu prin­ci­pa­le