Passa al contenuto principale

Guarda come funziona CustomerXM

Richiedi una demo

Macchina o essere umano: chi è responsabile? Tutto ciò che occorre considerare sull’IA

Tempo stimato di lettura 12


Dalle start-up, alle grandi organizzazioni, fino ai negozi di alimentari: ogni singolo brand, azienda e punto vendita desidera entrare nel mondo dell’intelligenza artificiale. Dopotutto, chi non è pronto ad adottare le nuove tecnologie è destinato a rimanere indietro. Tuttavia, sebbene ognuno di noi comprenda che abbiamo bisogno dell’intelligenza artificiale, la domanda sulla bocca di tutti al momento è: come possiamo usarla nel modo giusto? E, ora come ora, lo stiamo facendo?

Dagli algoritmi dei motori di ricerca alla navigazione satellitare, passando per gli assistenti domestici digitali, l’intelligenza artificiale gioca un ruolo significativo nella vita di tutti noi. Ci diagnostichiamo l’influenza da soli usando Google, litighiamo con i chatbot quando una consegna non arriva e chiediamo persino ai nostri robot aspirapolvere – a cui abbiamo con molta cura trovato un nome – di pulire per noi.

Senza dubbio, se dovessimo fermarci ad analizzare l’argomento in profondità, ci renderemmo tutti conto di quanto l’intelligenza artificiale sia radicata in ogni cosa che facciamo.

Eppure, nonostante la prevalenza e la diffusa integrazione dell’IA, è solo grazie ai progressi più recenti che è stata riportata al centro dell’attenzione un’annosa questione. Ovvero:

possiamo fidarci delle macchine?

Tutti abbiamo visto Deus Ex Machina, Blade Runner (l’originale e 2049) e, forse il più rilevante di tutti, Matrix. Ma è solo fantascienza, giusto? Un qualcosa di fantastico, una finzione.

Tuttavia, anche se siamo lontanissimi dal costruire robot senzienti completamente indistinguibili dagli esseri umani, la velocità con cui l’intelligenza artificiale si evolve e viene utilizzata, se lasciata incontrollata, potrebbe causare più danni che benefici.

La grande corsa all’IA

Praticamente ogni organizzazione del pianeta, oltre a parlarne, sta pensando e pianificando l’adozione dell’intelligenza artificiale. Consentendo all’IA di gestire funzioni di basso livello, i team hanno la possibilità di concentrarsi sull’aggiunta di ulteriore valore, sul miglioramento dei servizi esistenti o sul crearne di nuovi.

Ma questa è solo la punta dell’iceberg.

Per fare un esempio: l’IA sta aiutando le aziende farmaceutiche a sintetizzare nuovi farmaci per malattie gravi, acquisendo e analizzando rapidamente grandi quantità di dati sperimentali.

Aiuta i produttori a monitorare attentamente le applicazioni e l’utilizzo dei macchinari nelle varie sedi, oltre ad avvisare quando sono necessari degli interventi di manutenzione per prevenire guasti.

E sta perfino coadiuvando i rivenditori a definire in modo ottimale i prezzi dei prodotti, gli imballaggi e il posizionamento nei negozi, aumentando il livello di interesse e offrendo ai clienti ciò di cui hanno più bisogno.

Secondo le statistiche dell’IDC (Internet Data Center) la spesa per l’intelligenza artificiale dovrebbe raggiungere i 154 miliardi di dollari nel 2023, con un aumento del 26,9% rispetto al 2022.

Fermiamoci un momento a valutare la portata del fenomeno: stiamo parlando di ben 154 miliardi di dollari.

Tuttavia, proprio come ci accorgiamo degli aspetti positivi, stiamo anche iniziando a riflettere su quelli negativi. E questo lo dobbiamo, in particolare, a un recente sviluppo.

Una rivoluzione nel settore

Nel novembre 2022, OpenAI ha rilasciato un chatbot in grado di provocare un terremoto come mai se n’erano visti prima nel mondo dell’IA, grazie alla sua capacità di comprendere il contesto, le sfumature e persino l’umorismo del linguaggio umano.

ChatGPT.

Fondato sui modelli LLM (Large Language Model) di OpenAI proprio come i suoi predecessori, ChatGPT ha ridefinito completamente gli standard dell’intelligenza artificiale dimostrando un concetto cruciale: che le macchine possono davvero apprendere le complessità del linguaggio umano.

Utilizzando tecniche di deep learning, ChatGPT è capace di generare risposte molto simili a quelle che potremmo dare noi umani.

Al momento del suo lancio, questo straordinario chatbot ha immediatamente conquistato un’immensa fama (e anche il rovescio della medaglia, l’infamia) grazie ai moltissimi utenti che hanno condiviso i suoi output sui social media. All’improvviso ci siamo ritrovati con un chatbot in grado di scrivere storie, codificare programmi informatici e persino fornire consigli di viaggio.

E c’è dell’altro: gli utenti hanno scoperto che è ottimizzato per una varietà di compiti che hanno a che fare col linguaggio, tra cui tradurre, fornire riassunti e rispondere alle domande. Non solo, ma risponde in meno di un secondo, ed è quindi perfetto per le conversazioni in tempo reale.

E fa tutto questo in un modo che lo fa sembrare, beh, umano.

Tuttavia, perché un qualunque tipo di IA ottenga risultati così avanzati occorre fornirle continuamente grandi volumi di dati. Conversazioni, e-mail, preferenze, messaggi… tutto ciò che aiuta a raggiungere un livello minimo di umanità.

Sfortunatamente, questo tipo di approccio inizia a sollevare domande in ambito aziendale: lo stiamo utilizzando in modo etico? Cosa ne pensano i dipendenti? Ci ritroveremo nei guai?

Tutto dipende da come lo si usa

La sfida fondamentale con qualsiasi tipo di intelligenza artificiale è impiegarla in modo etico. Siamo tutti consapevoli del fatto che l’intelligenza artificiale richieda grandi serie di dati per funzionare; ma quanti? E di che tipo? Dove e quali sono i confini?

Per un lungo periodo di tempo, lo sviluppo e l’implementazione dell’IA nella nostra vita e nel mondo delle aziende sono rimasti in gran parte incontrollati. Dopotutto, chi potrebbe mai lamentarsi di un aspirapolvere Roomba ad attivazione vocale (a meno che, in realtà, non stia ascoltando le tue conversazioni).

Tuttavia, per molti il limite è l’utilizzo da parte delle aziende di strumenti che servono a sfruttare informazioni personali e/o private, ascoltare conversazioni attraverso vari canali senza autorizzazione, o imporre pregiudizi che perpetuano atteggiamenti come il razzismo.

Perché? Perché è proprio a quel punto che “l’umanità” dell’IA, ovvero la sua etica, viene messa in discussione. Iniziamo ad applicare i nostri stessi valori alle tecnologie che utilizziamo.

E ciò ci porta al fatto più saliente di tutti: siamo noi i veri responsabili dei risultati dell’intelligenza artificiale. Una macchina non è intrinsecamente buona né cattiva, lo è la mano che la alimenta. Lo sono le informazioni che forniamo.

Pertanto, sebbene le normative in materia di IA siano relativamente nuove, non lo sono i parametri relativi a privacy e protezione dei dati, salute e sicurezza, risorse umane e molto altro ancora.

Se non disponiamo di linee guida chiare per stabilire i nostri valori etici e le nostre considerazioni quando utilizziamo queste tecnologie, come possiamo aspettarci buoni risultati?

Solo un lavoratore mediocre dà la colpa ai propri strumenti

Quando si tratta di business, la domanda non è tanto se adottare l’IA, ma piuttosto come.

Conosciamo tutti, sebbene in misura diversa, i benefici dell’IA nei vari settori, quindi la difficoltà non sta tanto nello scegliere una soluzione, quanto piuttosto nell’implementarla e utilizzarla correttamente.

Ad esempio, la maggior parte delle organizzazioni utilizza una qualche forma di Robotic Process Automation (RPA, un tipo di intelligenza artificiale) per scalare le operazioni, ridurre le attività amministrative e offrire così ai propri dipendenti più tempo da dedicare ai compiti di maggiore importanza. Possiamo citare ad esempio i call center per il servizio clienti, i processi contabili e l’invio di richieste per sostituire le carte di credito smarrite.

Certo, tutto questo è fantastico, ma funziona solo se gli stessi processi risultano chiaramente definiti, solidi e, beh, ragionevoli. Nel momento in cui viene applicato un qualsiasi tipo di automazione a un processo che non funziona, o che non è in grado di evolversi, è allora che emergono problemi che spesso sono anche incredibilmente costosi da risolvere.

Immagina per un momento una catena di produzione di automobili. La fabbrica automobilistica effettua consegne puntuali, ogni volta, ogni giorno, ma per ogni 100 parti create una è difettosa.

Si tratta di un tasso di errore dell’1%. Apparentemente insignificante, giusto? Bene, e se all’equazione aggiungessimo l’automazione? Improvvisamente, la fabbrica è in grado di produrre 10.000 pezzi… e quelli difettosi crescono proporzionalmente a 100. È vero, un supervisore potrebbe effettuare il controllo qualità di queste parti e rimuoverle dal ciclo produttivo, ma l’impianto è completamente automatizzato, incluso il controllo qualità.

Inoltre, l’intelligenza artificiale responsabile del controllo qualità non ha ricevuto i giusti parametri per separare le parti difettose da quelle buone. Vedi quanto poco ci vuole perché le problematiche vengano a galla?

Il modo giusto per utilizzare l’IA

L’esempio appena illustrato non è certo una novità, ma se pensi di implementare un’intelligenza artificiale all’avanguardia nella tua azienda, dovresti considerare alcune cose.

Come gestirai i problemi in tempo reale?

La scalabilità dei processi aiuta ad aumentare l’efficienza, ma così facendo aumentano anche le problematiche, soprattutto se i processi di risoluzione dei problemi o di controllo della qualità non sono stati a loro volta potenziati.

Potresti scoprire di dover adattare la tua infrastruttura per supportare le nuove capacità, o di dover assumere nuovi talenti e creare nuovi team per gestire i programmi basati sull’intelligenza artificiale.

Qualunque sia la ragione, è essenziale considerare tutte le possibilità in anticipo, poiché solo così potrai arrivare a una soluzione etica e dalle prestazioni elevate.

Con che tipo di dati alimenterai le tue macchine?

Una delle problematiche maggiori per le aziende, soprattutto in un ambiente così rigido in termini di protezione e scrutinio dei dati come quello odierno, è alimentare algoritmi e sistemi di intelligenza artificiale con grandi volumi di dati di alta qualità.

Come sappiamo, l’IA è semplicemente un mezzo per raggiungere un fine; qualcosa che consente alle organizzazioni di fare ciò che già fanno (e anche di più) in meno tempo e con meno sforzo. Per ottenere i migliori risultati possibili, però, è necessario fornire i giusti set di dati.

Come proteggere i dati dei clienti?

Man mano che si evolve, l’intelligenza artificiale diventa sempre più capace non solo di raccogliere dati personali, ma anche di utilizzarli in modi che costituiscono un’invasione della privacy. Prendiamo ad esempio le macchine per il riconoscimento facciale. Tali macchine sono progettate per verificare automaticamente l’identità di una persona sulla base di una serie di dati preimpostati. Ciò che fanno è cercare in un database di immagini esistenti (e questo dipende interamente da quali database sono collegati al sistema di riconoscimento) per scoprire chi è un determinato individuo.

Ora, diciamo che uno di questi database sia stato alterato o che sia trapelato all’esterno. Improvvisamente, una persona può riuscire a ingannare una macchina facendole credere di essere qualcuno, o qualcos’altro. Le conseguenze sono potenzialmente catastrofiche.

Ecco perché la fase del controllo finale deve prevedere l’intervento umano. Nessuna forma di intelligenza artificiale può funzionare in modo efficace ed etico senza di noi. E questo è semplicemente un dato di fatto.

L’importante è considerare l’intelligenza artificiale un valore aggiunto. Ovviamente le macchine possono automatizzare i processi più ardui e ripetitivi, ma quando sono richieste empatia o comprensione critica di ciò che clienti, dipendenti e altri potrebbero desiderare, è necessario garantire che dall’altra parte ci sia un essere umano.

Finché l’intelligenza artificiale non imparerà a far sue sfumature ed emozioni, ovvero riconoscere ciò che ci rende umani, spetta a noi – come leader, manager, pionieri, clienti e, soprattutto, persone – stabilire i giusti limiti e agire con empatia.

Guarda come funziona CustomerXM