Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..
L’amministrazione Trump starebbe valutando l’introduzione di restrizioni nei confronti del laboratorio cinese di AI DeepSeek, includendo un possibile divieto di accesso per i cittadini statunitensi ai modelli sviluppati dall’azienda e il blocco dell’acquisto di chip AI di Nvidia da parte della stessa.
Questa mossa si inserisce nella più ampia strategia americana di contenimento tecnologico nei confronti della Cina, rafforzando i limiti già stabiliti in precedenza sotto l’amministrazione Biden. Il crescente successo di DeepSeek tra gli sviluppatori statunitensi, dovuto anche alla sua politica aggressiva sui prezzi, ha esercitato una pressione significativa sui colossi della Silicon Valley, costringendoli a rivedere al ribasso i costi dei propri modelli AI di frontiera.
Tuttavia, questo successo è accompagnato da sospetti di illeciti: OpenAI accusa infatti DeepSeek di aver violato i propri termini di servizio attraverso la distillazione non autorizzata dei suoi modelli, sollevando preoccupazioni relative al furto di proprietà intellettuale.
La Casa Bianca ha recentemente inasprito le regole sulle esportazioni di chip AI verso la Cina, accentuando la rivalità strategica tra le due potenze nel campo dell’intelligenza artificiale.
Se venisse approvata, l’esclusione di DeepSeek dal mercato statunitense potrebbe ridefinire gli equilibri competitivi globali, riducendo l’accesso a soluzioni AI avanzate per molti sviluppatori americani, ma rafforzando al contempo l’autonomia tecnologica nazionale.
Il provvedimento è ancora in fase di studio, ma rappresenta un ulteriore segnale del conflitto crescente tra Stati Uniti e Cina per il controllo dell’innovazione nel campo dell’AI.
Per maggiori informazioni, clicca per l’articolo originale.
Mentre gli ‘studenti bot’ continuano ad aumentare, i college comunitari faticano a reagire
Il fenomeno degli ‘studenti bot’, entità fittizie iscritte ai corsi online con lo scopo di accedere fraudolentemente ai fondi di aiuto finanziario, sta generando una crisi nei college comunitari statunitensi, in particolare presso il Southwestern College.
Professoresse e professori, tra cui Elizabeth Smith ed Eric Maag, si trovano a fronteggiare un’ondata di iscrizioni artificiali che, oltre a saturare i corsi e a escludere gli studenti autentici, richiedono una continua attività investigativa per essere smascherate. I bot, spesso manovrati da reti umane di frodatori, inviano compiti generati tramite AI e si avvalgono di linguaggi formali e atipici per ingannare il corpo docente.
Nel 2024 i danni economici causati da queste pratiche in California hanno superato gli 11 milioni di dollari, cifra più che raddoppiata rispetto all’anno precedente. Nonostante la creazione di task force come l’Inauthentic Enrollment Mitigation presso Southwestern, la reazione istituzionale appare frammentaria e insufficiente, secondo molti insegnanti.
L’identificazione precoce dei bot, cruciale per evitare l’erogazione dei fondi, è resa difficile dalla continua evoluzione delle tecniche fraudolente. Alcuni episodi evidenziano l’uso non autorizzato di identità reali, dimostrando quanto il sistema di iscrizione statale sia vulnerabile.
La tensione tra il dovere didattico e il controllo antifrode sta snaturando il ruolo degli insegnanti, compromettendo la qualità dell’insegnamento e ostacolando l’accesso all’istruzione per chi ne ha realmente bisogno.
Mentre si invocano soluzioni tecnologiche sistemiche, il rischio è quello di penalizzare studenti autentici attraverso restrizioni indiscriminate. Il problema, diffuso a livello nazionale, richiede una risposta strutturale da parte delle istituzioni statali e federali.
Per maggiori informazioni, clicca per l’articolo originale.