Key4biz

Klarna ha utilizzato un avatar AI del suo CEO per presentare i risultati finanziari

Klarna ha fatto parlare di sé sostituendo il suo CEO umano, Sebastian Siemiatkowski, con una versione digitale generata tramite AI per presentare i risultati trimestrali.

Il video pubblicato su YouTube mostra un avatar quasi indistinguibile dal dirigente reale, con movimenti leggermente meccanici e una somiglianza visiva notevole.

L’intento dichiarato non era solo dimostrare l’efficienza della tecnologia, ma anche rafforzare l’identità dell’azienda come realtà profondamente integrata con l’AI, in vista della sua prossima quotazione in borsa.

La società ha attribuito i propri successi finanziari, inclusi quattro trimestri consecutivi di utile, all’adozione massiccia di strumenti basati su AI, che hanno consentito una drastica riduzione della forza lavoro – circa il 40% in meno – portando i dipendenti da 5.000 a circa 3.000.

Questo ha incrementato in modo significativo la produttività, con un fatturato medio per impiegato vicino al milione di dollari. Il gesto, ironico ma emblematico, ha riacceso il dibattito sull’eventualità che le AI possano assumere ruoli di leadership aziendale.

Nonostante alcuni studi, come uno pubblicato su Harvard Business Review, suggeriscano che modelli come GPT-4o possano superare i CEO umani in varie funzioni strategiche, permangono limiti evidenti nella gestione di eventi imprevedibili.

La stessa ricerca ha evidenziato come un avatar AI, pur performante in situazioni normali, fallisca dinanzi a eventi ‘cigno nero’, come le crisi finanziarie globali.

Klarna, pur non rilasciando ulteriori commenti, sembra voler continuare a percorrere questa strada, sfruttando la visibilità e l’efficienza offerte dall’integrazione dell’AI nei suoi processi aziendali.

Per maggiori informazioni, clicca per l’articolo originale.

L’AI rappresenta una minaccia maggiore per il lavoro femminile rispetto a quello maschile, secondo un rapporto

Secondo un rapporto pubblicato dall’Organizzazione Internazionale del Lavoro (OIL) delle Nazioni Unite, l’adozione crescente dell’AI comporta rischi occupazionali significativamente più elevati per le donne rispetto agli uomini, specialmente nei paesi ad alto reddito.

Il documento evidenzia che circa il 9,6% dei ruoli tradizionalmente femminili è destinato a subire trasformazioni profonde, rispetto al 3,5% dei lavori storicamente associati alla forza lavoro maschile.

Le professioni amministrative e di segreteria, occupate prevalentemente da donne, sono tra le più esposte alla ridefinizione delle mansioni causata dall’intelligenza artificiale generativa. Il rapporto chiarisce che non si tratta tanto di una sostituzione completa delle occupazioni, quanto della possibilità concreta che molte attività quotidiane vengano automatizzate.

Nonostante ciò, la componente umana continuerà a essere cruciale, soprattutto nei compiti che richiedono empatia, giudizio e interazione sociale. I settori dei media, del software e della finanza sono anch’essi indicati come altamente esposti alla trasformazione indotta dall’AI, data la rapida evoluzione delle capacità dei modelli generativi.

L’OIL invita governi, datori di lavoro e rappresentanze sindacali a pianificare in modo proattivo strategie che consentano di sfruttare l’AI per migliorare la produttività senza compromettere la qualità dell’occupazione.

È essenziale sviluppare politiche inclusive che garantiscano una transizione equa, con particolare attenzione alla tutela delle lavoratrici che rischiano di essere maggiormente penalizzate dalla riconfigurazione tecnologica del mercato del lavoro.

Per maggiori informazioni, clicca per l’articolo originale.

Come l’esercito cinese potrebbe usare tattiche anti-AI sui campi di battaglia del futuro

Le forze armate cinesi stanno esplorando nuove strategie per neutralizzare i vantaggi offerti dall’uso dell’AI in ambito militare, con particolare attenzione a comprometterne l’efficacia su tre livelli chiave: dati, algoritmi e capacità computazionale.

Secondo il PLA Daily, organo ufficiale dell’esercito, il successo in futuri conflitti dipenderà dalla capacità di ostacolare l’elaborazione delle informazioni da parte delle AI nemiche. Una delle tattiche suggerite è la ‘contaminazione dei dati’, ovvero l’introduzione di informazioni fuorvianti per alterare l’apprendimento dei modelli linguistici avversari. Q

uesto approccio può includere l’uso di armi camuffate o la diffusione intenzionale di dati fittizi nelle reti nemiche, misure già impiegate da alcune forze armate straniere.

A tali pratiche si aggiunge la ‘deception logica’ degli algoritmi, consistente nell’agire al di fuori del perimetro logico previsto dai sistemi di AI. Ad esempio, sciami di droni potrebbero compiere manovre irregolari per rendere difficile la previsione dei loro schemi operativi.

La riflessione sull’uso della guerra ‘ingannevole’ non è nuova per l’Esercito Popolare di Liberazione, ma acquisisce oggi un ruolo centrale nel quadro di una rivalità tecnologica sempre più marcata tra potenze militari.

L’adozione di queste contromisure suggerisce che la supremazia futura sui campi di battaglia non dipenderà soltanto da chi dispone della tecnologia AI più avanzata, ma anche da chi saprà eluderla con maggiore efficacia.

Per maggiori informazioni, clicca per l’articolo originale.

Exit mobile version