L’IA sta avendo il suo impatto anche nel settore della moda, con potenziali applicazioni che vanno oltre il miglioramento delle piattaforme di shopping online.
Oggi, infatti, l’Ai è in grado di aiutare i consumatori a superare il fenomeno della “paralisi della scelta”, che colpisce il 74% degli utenti, rendendo difficile la scelta vista la miriade di opzioni (un po’ come scegliere una serie tv o un film nel catalogo di Netflix, l’impressione è che sia di più il tempo speso nella ricerca che nella visione dei contenuti). Le ricerche, infatti, indicano che il 79% dei consumatori vorrebbe l’assistenza di un’IA in grado di comprendere le proprie esigenze, suggerendo prodotti pertinenti e riducendo il tempo speso online.
Strumenti come Google Lens stanno già ridisegnando le dinamiche dello shopping. Infatti, tramite il riconoscimento visivo (inquadrando i prodotti con la fotocamera del cellulare), gli utenti possono trovare prodotti visti in film o pubblicità, come è accaduto durante la stagione 2024 di Emily in Paris. Google, infatti, ha collaborato con Netflix per integrare una funzione innovativa di shopping che permette tuttora agli spettatori di identificare e acquistare online gli abiti e gli accessori indossati dai personaggi della serie. Ad esempio, quando Emily o altri protagonisti indossano un capo che è di gusto dell’utente, quest’ultimo può semplicemente scattare una foto del prodotto e Google Lens lo aiuta a trovarlo o a suggerire articoli simili online.
L’IA generativa sta diventando importante nel marketing, nella personalizzazione della comunicazione e nella ricerca di prodotti. Infatti, Google non è sola in questa nuova strada, anche aziende come Zalando e startup come Daydream stanno investendo in tecnologie per facilitare l’esperienza di acquisto, con assistenti virtuali basati su ChatGPT e raccomandazioni personalizzate.
Leggi l’articolo completo: Trovare un abito visto in un film o evitare la «paralisi della scelta» (che ferma il 74% dei consumatori): Ai e shopping su corriere.it.
Immagine generata tramite DALL-E 3.

