Una nuova indagine condotta da Resume Builder rivela come il 60% dei manager statunitensi utilizzi strumenti di AI generativa, come ChatGPT, Copilot di Microsoft e Gemini di Google, per prendere decisioni cruciali in ambito lavorativo. Tali decisioni includono promozioni, aumenti di stipendio, licenziamenti e selezione dei candidati.
Sorprendentemente, oltre un manager su cinque consente spesso all’AI di prendere decisioni definitive senza intervento umano, evidenziando un trend crescente ma poco regolamentato.
Benché il 94% dei dirigenti che usano AI per la gestione del personale affermi di farne uso regolare, solo un terzo ha ricevuto una formazione formale sull’uso etico di tali tecnologie. In alcuni casi, l’AI ha portato alla sostituzione di interi ruoli, con il 43% dei manager che ha effettivamente rimpiazzato un lavoratore con uno strumento automatizzato.
Tuttavia, questo crescente affidamento solleva preoccupazioni su bias algoritmici, mancanza di empatia e rischi legali.
Nonostante il potenziale per aumentare l’efficienza e ridurre i costi, gli esperti avvertono che un uso privo di supervisione può compromettere la fiducia interna e danneggiare la cultura aziendale. Inoltre, mentre il 97% dei manager utilizza l’AI per creare materiali formativi o piani di sviluppo, l’assenza di linee guida chiare può sfociare in valutazioni ingiuste e decisioni disumanizzate.
Secondo Stacie Haller, consulente di carriera, è fondamentale garantire che ‘il fattore umano’ non venga completamente sacrificato sull’altare dell’efficienza algoritmica.
Per maggiori informazioni, clicca per l’articolo originale.
OpenAI rafforza la sicurezza dopo minacce di spionaggio straniero
In risposta a minacce crescenti di spionaggio industriale, in particolare da parte di aziende cinesi, OpenAI ha avviato un’importante revisione delle proprie pratiche di sicurezza.
La società californiana, valutata circa 300 miliardi di dollari, ha potenziato le misure per proteggere la proprietà intellettuale attraverso un accesso più selettivo alle informazioni sensibili, una maggiore segmentazione interna e l’implementazione di sistemi fisici e digitali di protezione avanzata.
Le tensioni sono aumentate dopo che DeepSeek, startup cinese, ha rilasciato un modello AI sospettato di derivare da tecniche di “distillazione” basate sul lavoro di OpenAI. Sebbene DeepSeek non abbia commentato, l’episodio ha innescato un’intensificazione dei controlli.
Il rafforzamento include pratiche note come “tenting”, che limitano la condivisione di dati tra team non autorizzati, oltre a strutture di calcolo isolate dal web e controlli biometrici per accedere a spazi critici.
Una politica di rete “deny-by-default” impedisce connessioni non autorizzate a internet, rendendo ardua ogni possibile esfiltrazione di dati. Inoltre, OpenAI ha assunto figure chiave in ambito sicurezza, tra cui Dane Stuckey (ex Palantir) come Chief Information Security Officer e il generale in pensione Paul Nakasone nel consiglio di amministrazione, a supporto della difesa contro minacce cibernetiche.
L’adozione di queste misure avviene in un contesto geopolitico sempre più competitivo tra Stati Uniti e Cina sul fronte dell’AI, con Washington che impone restrizioni alle esportazioni tecnologiche.
Tuttavia, crescono anche i timori su episodi di discriminazione etnica nel settore tecnologico statunitense, spesso alimentati da sospetti indiscriminati. OpenAI afferma di voler guidare il settore anche nel campo della sicurezza, con un investimento deciso in programmi di privacy e protezione.
Per maggiori informazioni, clicca per l’articolo originale.