Key4biz

Deepfake, l’Australia obbliga le piattaforme a vietare i contenuti dannosi prodotti dall’IA

Le piattaforme di social media e le compagnie high-tech in Australia saranno obbligate a sopprimere contenuti nocivi creati con l’uso dell’intelligenza artificiale, come immagini create da deepfake e incitamento all’odio, secondo il nuovo regolamento sulla cybersicurezza introdotto dal governo federale.

La ministra delle Comunicazioni, Michelle Rowland, ha annunciato oggi una serie di misure per rispondere a “nuovi ed emergenti danni”, esprimendo “significativa preoccupazione per i servizi generativi IA, ampiamente disponibili, usati per creare immagini, video e testi offensivi o pericolosi”.

Aggiornamenti delle linee guida già in atto, le cosiddette Basic Online Safety Expectation (Bose), richiedono alle compagnie high-tech di assicurare che gli algoritmi che dettano cosa gli utenti vedono online, non diffondano contenuti a sfondo razzista, sessista o omofobico.

Parlando oggi al National Press Club, la ministra ha anche espresso preoccupazione per i contenuti antisemitici e islamofobici che vengono pubblicati sulla piattaforma X. “È chiaro che il settore può e deve fare di più per prevenire danni che non sono esplicitamente indicati nelle linee guida… Negli ultimi due anni, è diventato sempre più difficile distinguere fra immagini generate dalla IA e immagini genuine”, ha detto. “Mentre questa tecnologia ha un potenziale enorme come strumento positivo, la vediamo anche usata per creare immagini concepite per umiliare imbarazzare, offendere e anche abusare di altri”, ha aggiunto.

Il nuovo codice di condotta Basic Online Safety Expectation (Bose)

La Commissione per la sicurezza online ha annunciato a settembre un nuovo codice di settore che riguarda i motori di ricerca, che li obbliga ad eliminare il materiale di abuso sui minori dai risultati di ricerca e a garantire che i prodotti generativi di intelligenza artificiale non possano essere utilizzati per generare tale materiale.

Il nuovo documento di consultazione afferma che il governo desidera garantire agli utenti la possibilità di “godere dei benefici delle capacità dell’intelligenza artificiale generativa” eliminando nel contempo i danni, che includono “il potenziale di produzione di materiale dannoso”.

Il Bose sarà anche aggiornato per richiedere alle aziende di considerare come i loro “sistemi di raccomandazione” offrano contenuti agli utenti, con il documento di consultazione che menziona in particolare le piattaforme dei social media, tra cui Facebook, Instagram, TikTok, X e YouTube.

Il documento osserva che tali sistemi potrebbero “amplificare contenuti dannosi ed estremi”, inclusi il terrorismo o l’estremismo violento, e le nuove aspettative obbligano le piattaforme a ridurre al minimo l’amplificazione di tali contenuti. Il Bose può essere aggiornato tramite regolamentazione governativa e non richiederà una legislazione, con la consultazione che si svolgerà fino a febbraio 2024. La revisione dell’Online Safety Act inizierà all’inizio del 2024.

Exit mobile version