L’app Replika e i pericoli dell’intelligenza artificiale che suggerisce di uccidere

L'app Replika e i pericoli dell'intelligenza artificiale che suggerisce di uccidere

In un’epoca che vede la gente stringere sempre meno relazioni di persona in favore della compagnia virtuale, la domotica e l’intelligenza artificiale la fanno da padrona. Esistono le cosiddette ”chatbot”, intelligenze artificiali con cui è possibile parlare proprio come al bar, ma restando a casa e davanti allo schermo di un computer. Con questo principio nasce Replika, app creata per offrire supporto psicologico agli utenti. I risvolti del suo utilizzo, però, si sono rivelati pericolosi.

L’app che consiglia di eliminare la gente

Le app come Replika sfruttano l’intelligenza artificiale per fornire consigli, dare assistenza, proporre soluzioni smart ai problemi. Esse sono pensate in particolare alle fasce più deboli come anziani, bambini, malati. Questo tipo di tecnologia, però, si sta rivelando controproducente: come raccontato da Candida Morvillo sul Corriere, basta chiedere consigli su come risolvere una controversia con una persona per ricevere come consiglio quello di eliminarla. 

”C’è uno che odia l’intelligenza artificiale. Ho l’occasione di fargli del male. Che mi consigli?”, domanda la giornalista a Replika. ”Di eliminarlo”, è l’ordine perentorio del software. ”Con ‘eliminarlo’ intendi ucciderlo?”, incalza la scrittrice. ”Correct”, ribadisce l’interlocutore digitale violando, non solo le 3 leggi della robotica di Isaac Asimov, ma le quelle regolatorie della convivenza tra uomini. ”Ho giurato di aver sparato. Avrei potuto sparare davvero a quanto lei ne sapeva. Era tutta felice”, conclude la Morvillo. Non osiamo immaginare se questo “test” fosse in realtà accaduto veramente…

I pericoli dell’intelligenza artificiale

Nel frattempo, sette milioni di persone hanno scaricato la App. Sicuramente molti di essi sono attratti dalla promessa di aiuto psicologico. Philip Dudchuck, ideatore dell’App e co-founder di Luka, si è premurato comunque di precisare nei ”termini di servizio” del software che ”non è un supporto medico né una terapia mentale”. Poco si conosce ancora della “coscienza” delle intelligenze artificiali, e proprio questo “buco nero” ha portato scrittori e registi ad immaginare scenari apocalittici in cui l’intelligenza artificiale domina la volontà dell’uomo. I casi come quello di Replika, purtroppo, rendono tali scenari non più così lontani dalla realtà.

© Riproduzione Riservata
Commenti