Per capire le motivazioni che mi hanno spinto a scrivere questo breve post, potremmo certamente citare il Nobel per l’Economia assegnato a Richard Thaler. Tra le motivazioni del premio c’era l’aver creato un ponte tra la psicologia e l’economia.

C’è un nesso tra i meccanismi psicologici dell’uomo e i comportamenti del consumatore?

Cercherò di illustrare come, l’utilizzo dei big-data e gli algoritmi di analisi del comportamento umano, possano rappresentare, da un lato uno sterminato ambito di nuove applicazioni e mercati e dall’altro, un potente strumento da inserire nei processi di trasformazione digitale dell’Industria 4.0.

La tesi e’ che il comportamento, durante l’acquisto da parte di un essere umano, sia fortemente influenzato dalle abitudini di acquisto pregresse e quindi, analizzando le stesse, potremmo capire quale sia il momento commercialmente più produttivo per la nostra azione commerciale oppure come potenziare la nostra campagna commerciale.

Partiamo da un caso che ha fatto scuola. Il New York Times Magazine, nel 2012, intitolava un articolo: “Come le Aziende imparano i vostri segreti” e raccontava della società Target, diventata famosa per via di un algoritmo, ideato da un suo dipendente, Andrew Pole, laureato in statistica che analizzando i comportamenti di acquisto delle clienti, riusciva a stabilire quando la cliente era in stato gravidanza. L’acquisto, in un lasso di tempo molto breve, di 25 prodotti specifici, portava l’algoritmo a segnalare che la cliente che aveva effettuato gli acquisti, pur non avendo ancora rivelato il proprio stato alla rete commerciale,  si trovava nella condizione ottimale di ricevere, positivamente, alcuni stimoli quali un coupon relativo a prodotti tipicamente usati dalle clienti in gravidanza.

Quindi l’analisi dei big-data relativi a comportamenti di acquisto, già agiti, ci potevano, sin dal 2012, far capire il momento giusto per una determinata azione commerciale.

Vediamo ora come, la crescita esponenziale della capacità di analisi degli elaboratori, abbia consentito di approntare modelli matematici che inseriti in uno scenario di Industria4.0, arricchirà ulteriormente la capacità di modificare, l’offerta di prodotti e servizi, in funzione delle emozioni che il cliente sta sperimentando durante il contatto commerciale.

Il punto di partenza è che quanto espresso dalla mente, conscia, non sempre rappresenta in modo esaustivo il comportamento degli individui, rendendo meno significativi i sondaggi, le interviste o i focus group.

Per una trattazione un pò più dettagliata del tema della lettura delle emozioni, tramite la decodifica di comportamenti non verbali, vi rimando al mio post  sull’Intelligenza Artificiale e la lettura delle emozioni

http://www.lorenzoferrante.it/2017/12/16/inteligenza-artificiale-e-la-lettura-delle-emozioni/

Il neuromarketing misura ed interpreta le risposte cerebrali a stimoli esterni per valutare le modalità e l’intensità delle risposte.

La società americana Affectiva ( http://www.affectiva.com ) e’ attiva in quello che e’ noto con l’acronimo EAI (Emotion Artificial Intelligent), la branca dell’intelligenza artificiale che riconosce e investiga le emozioni, mediante l’analisi dell’espressione facciale o della voce.

Qui la tesi e’ che la razza umana, per comunicare le proprie emozioni, usa numerosi segnali, non-verbali, quali l’espressione facciale, i gesti, il linguaggio del corpo e il tono di voce.

Ai modelli matematici chiediamo di  riuscire ad interpretare il contesto, in cui un’azione umana si sviluppa e a predire, con ragionevole sicurezza, il successivo comportamento umano.

I problemi sono di due distinti ordini; il primo e’ rappresentato dalla costruzione dell’algoritmo e il secondo è relativo alla fase di “deep-learning” dove, l’analisi di una enorme quantità di dati, consente all’algoritmo di imparare.

Nel caso di Affectiva il modello matematico ha imparato, mediante un data-base contenente l’analisi, campionata, di 6 milioni di facce appartenenti a 87 paesi. L’azienda afferma di aver raggiunto, per le emozioni principali, un’accuratezza superiore al novantesimo percentile.

Siamo quindi in grado di analizzare, in tempo reale mediante una telecamera, quali siano, per esempio, le emozioni determinate da un filmato che gira sul totem pubblicitario del nostro store.

In termini di marketing vi pare poco? Come potremmo sfruttare tali preziosissimi dati nei termini produttivi consentiti dalla trasformazione digitale della nostra impresa ?

Non sembra esserci un limite alla progressiva evoluzione dei modelli di analisi comportamentale poiché, grazie all’enorme quantità di dati generati dalla digitalizzazione delle imprese, la biblioteca virtuale dalla quale, tali modelli, possono e potranno apprendere cresce in ogni istante.

Un gruppo di ricercatori del Massachusetts Institute of Tecnology, partendo dagli esperimenti relativi alle sequenze di comportamento (Van Hoof 1982), ha analizzato, mediante una rete neurale, molte ore di video con l’obiettivo di insegnare, all’algoritmo, a leggere la realtà e quindi a ricostruire un’azione B avendo come input la scena A. Nel caso dei ricercatori del MIT la fornitura, all’algoritmo, del data-base di apprendimento e’ stata possibile mediante la campionatura di spezzoni video relativi alle azioni svolte dagli attori di alcune  serie.

La fotocamera di iPone X, la TrueDepth camera, analizza il movimento di più di 50 muscoli per attribuire all’Animoji (personaggi animati personalizzati), l’espressione letta sul volto e il motore neurale consente, allo smartphone, di riconoscere il volto del suo proprietario adattando l’algoritmo di riconoscimento alle variazioni fisiologiche del volto stesso.

I nostri acquisti raccontano i nostri stati d’animo, le espressioni del nostro viso e la nostra voce evidenziano le nostre emozioni e l’integrazione di questi due sentieri, porta a modelli che prevedono, con sempre maggiore precisione, l’azione fisica che il soggetto sta per fare.

La strada e’ oramai tracciata.  Uno dei sentieri più interessanti, in termini economici che verranno progressivamente integrati nei processi di trasformazione digitale dell’Industria 4.0, e’ quello delle reazioni emotive dei soggetti consumatori agli stimoli commerciali e come essi, gli stimoli, potranno adattarsi, in tempo reale, alle esperienze emotive provate dal potenziale consumatore.

Il Gruppo cinese Alibaba, guidato da Jack Ma,  tra i  leader nel mercato  dell’e-commerce, ha deciso di investire, nel suo piano industriale per il triennio 2018-2020, 13 miliardi di dollari nello sviluppo di modelli di Intelligenza Artificiale per scoprire tecnologie innovative che aumentino la sinergia nel l’ecosistema Aziende-Clienti finali. L’obiettivo del piano è: “stimolare la crescita di Alibaba e dei suoi partner”.

Cosa ne pensi?

Se vuoi contribuire, scrivi nei commenti e se pensi che questo post ti sia stato utile, condividilo.

Grazie.