D:eepfakes, sfide virali online e difesa della libertà di espressione. La legge sulla sicurezza online si sta diffondendo in molti angoli di Internet e sta per diventare ufficiale. La legislazione tanto dibattuta deve ricevere il consenso reale e quindi diventerà presto legge.
Lo scopo della legge è garantire che le aziende tecnologiche dispongano dei giusti sistemi e processi di moderazione per gestire i contenuti dannosi. “Ciò significa che la società non può essere esposta accidentalmente”, ha affermato Ben Packer, partner dello studio legale Linklaters. “Dovrebbe disporre di sistemi e processi in grado, ad esempio, di ridurre al minimo il tempo in cui i contenuti illegali sono disponibili.”
Packer aggiunge che se tali sistemi e processi fossero ritenuti obsoleti, le piattaforme potrebbero violare la legge. “Anche se una piattaforma non presenta contenuti illegali sul suo servizio, potrebbe comunque violare la legge. Allo stesso modo, il semplice fatto che su un servizio appaiano contenuti illegali non significa necessariamente che si tratti di una violazione.”
L’operazione è complessa e, come vedrete in seguito, controversa.
Obblighi previsti dal disegno di legge
Il disegno di legge si basa su tre responsabilità principali: protezione dei bambini; proteggere il pubblico dai contenuti illegali; e aiutare gli utenti adulti a evitare contenuti dannosi ma non illegali sulle piattaforme più grandi.
Un’azienda rientra nel campo di applicazione della legge se distribuisce contenuti generati dagli utenti ad altri utenti o è un motore di ricerca. Coprirà quindi una vasta gamma di piattaforme, da X a Facebook, Instagram, YouTube e TikTok, oltre a Google.
Al fine di rispettare gli obblighi relativi ai bambini e ai contenuti illegali, le aziende devono condurre una valutazione del rischio per verificare se tali contenuti compaiono sul loro servizio.
Tutto ciò avverrà sotto il controllo del controller di comunicazione Ofcom:, che fornirà indicazioni sui contenuti su cui puntare per la prevenzione e sui sistemi necessari per contrastarla. Le aziende possono aderire al Codice di condotta di Ofcom per la gestione di questo contenuto o elaborare i propri metodi per gestire tale materiale.
Ma il disegno di legge chiarisce che se seguono il codice di condotta, non correranno il rischio di violare le disposizioni pertinenti della legge. Secondo la legge, “si ritiene che abbiano adempiuto ai relativi obblighi se il prestatore adotta o utilizza le misure descritte nel codice di condotta”.
In risposta ai timori che il disegno di legge”statuto di censuraTutte le aziende rientranti nel campo d’azione sono tenute a tutelare il “diritto degli utenti alla libertà di parola” e la loro privacy.
Protezione dei bambini
Le comunicazioni del governo sulla legislazione si sono concentrate sulla protezione dei bambini. Esistono due categorie di contenuti dannosi per i bambini che le aziende tecnologiche devono affrontare. Il primo riguarda i “contenuti ad alta priorità” come la pornografia e la promozione del suicidio e dei disturbi alimentari (anche se al di sotto della soglia penale). Se i siti web consentono tali contenuti, ai bambini dovrebbe essere impedito di incontrarli e la legge prevede che siano adottate misure di verifica dell’età per questo; misure che mirano ad aree specifiche di contenuto o coprono un’area specifica della piattaforma.
Il secondo tipo è rappresentato dai “contenuti primari”, come il bullismo e i post che incoraggiano i bambini a parteciparvi trucchi o sfide pericolose. I bambini appartenenti alle fasce d’età che si ritiene siano interessate da tali contenuti, ovvero l’area in cui la valutazione del rischio sarà importante, dovrebbero essere protetti dall’esposizione a tale materiale. Ofcom illustrerà i passaggi per raggiungere questo obiettivo in un codice di condotta che sta sviluppando.
Contenuti illegali
La legge elenca una serie di reati penali che costituiscono “contenuti illegali prioritari”, il che significa che le aziende coperte dalla legge devono disporre di sistemi e processi in atto per impedire agli utenti di essere esposti a tale materiale.
Tali crimini prioritari includono: contenuti terroristici; vendetta o pornografia estrema; e minacce di morte. La legge vuole che questo tipo di contenuti siano attivamente presi di mira dai sistemi e dai processi di moderazione delle piattaforme.
Nel caso ci sono nuovi reati penali. Le persone che utilizzano post sui social media per incoraggiare l’autolesionismo rischiano di essere perseguite in base a un nuovo reato introdotto in un disegno di legge per Inghilterra e Galles. Agisci anche tu criminalizzare la distribuzione di deepfake pornografici – immagini o video che sono stati manipolati per sembrare umani.
Proteggi gli adulti contenuti dannosi
Questo si riferisce alle aziende o piattaforme di “primo livello” che hanno la maggiore portata e la maggiore influenza sul discorso pubblico. Quindi puoi aspettarti che si applichi a Facebook, Instagram, Google e TikTok. Ma dopo un tardivo emendamento al disegno di legge, potrebbe applicarsi anche a siti di nicchia ma rischiosi come la piattaforma di destra 4chan.
Una volta stilato un elenco delle piattaforme di siti Web di categoria 1 da parte del Segretario di Stato, tali società dovranno consentire agli utenti adulti di rinunciare a determinati tipi di contenuti se scelgono di farlo.
Le piattaforme di contenuto devono proteggere gli utenti se l’utente lo sceglie, afferma la legge. materiale relativo al suicidio, all’autolesionismo e all’abuso che prende di mira caratteristiche protette dall’Equality Act (ad esempio età, razza e sesso). Le piattaforme dovrebbero valutare la quantità di contenuti presenti sulle loro piattaforme e implementare un modo per proteggere gli utenti da tali contenuti.
Quindi non è il caso di premere un pulsante su queste piattaforme e tutte le cose brutte scompaiono. Le piattaforme dovrebbero offrire funzionalità che, ad esempio, consentano agli utenti di evitare abusi. Potrebbe trattarsi di un’opzione per consentire a qualcuno di seguirti o di una schermata di avviso che appare per determinati contenuti o disabilita determinate parole. Molte piattaforme offrono già tali misure, ma Ofcom ora sta guardando.
Ulteriori responsabilità delle aziende di primo livello comprendono la protezione dei contenuti giornalistici e dei “contenuti di rilevanza democratica”.
Pornografia
dopo la promozione della newsletter

I siti che offrono contenuti pornografici devono utilizzare misure di verifica dell’età (gergo per controlli dell’età) o tecnologie di stima dell’età (in cui invii un selfie alla piattaforma e si misura se hai l’età che dici di avere) per garantire che gli utenti abbiano 18 anni o meno. Ciò vale ovviamente per siti come Pornhub e piattaforme utente-utente che consentono contenuti di natura sessuale, come OnlyFans (che ha già una politica 18+). I siti che non sono specificamente servizi di pornografia ma consentono comunque contenuti di natura sessuale, come X, devono implementare misure di verifica o classificazione dell’età, per contenuti specifici o per una parte specifica del loro servizio.
Ofcom fornirà indicazioni sulle forme più efficaci di verifica o valutazione dell’età.
Crittografia end-to-end
Uno degli elementi più controversi del disegno di legge è la disposizione CSAM (Child Sexual Abuse Material), che conferisce a Ofcom il potere di ordinare al servizio di messaggistica di utilizzare “tecnologie accreditate” per cercare e rimuovere tali contenuti.
Gli attivisti per la privacy e le aziende tecnologiche hanno avvertito che la disposizione rappresenta un rischio fondamentale per i messaggi crittografati end-to-end, in cui solo il mittente e il destinatario possono leggere il messaggio, poiché potrebbe richiede la scansione dei messaggi privati.
Cercando di prevenire un minacciato esodo, il governo ha dichiarato a settembre che Ofcom sarebbe stata in grado di intervenire solo se la scansione dei contenuti fosse stata “tecnicamente fattibile” e se il processo avesse soddisfatto gli standard minimi di privacy e accuratezza. Alcuni osservatori hanno considerato questo come un passo avanti, ma il governo non ha cambiato la formulazione del disegno di legge, quindi questo sembra essere ancora un problema molto attuale con la legislazione.
Responsabilità penale dei gestori della tecnologia
I capi della tecnologia rischiano fino a due anni di prigione se ignorano persistentemente gli avvisi di applicazione da parte di Ofcom che affermano di aver violato il loro dovere di prendersi cura dei bambini. Il governo ha sottolineato agli amministratori delegati del settore tecnologico che il nuovo reato non criminalizzerà i dirigenti che hanno “agito in buona fede nello svolgimento proporzionato dei loro compiti”.
Il personale senior può anche essere incarcerato se ostacola un’indagine dell’Ofcom o una richiesta di informazioni.
Quindi che succede adesso? Si tratta di un atto legislativo complesso e di vasta portata che riflette in parte l’ampia natura del settore che cerca di regolamentare. Ofcom e le piattaforme tecnologiche saranno impegnate.
La settimana nell’intelligenza artificiale

Spazio tecnologico più ampio

-
Il cielo non è il limite. Amazon porta consegna con droni A: Porte inglesi e italiane.
-
Nel frattempo, Ucraina perde circa 10.000 droni al mese, Lo riferisce la BBCe timori dopo le restrizioni alle esportazioni cinesi.
-
È il primo anno di Elon Twitter:scusa X 13 tweet.
-
Perché dovrebbe interessarti? chip di silicio avanzati. Infatti.
-
Il titolo dice tutto, confermando che l’app di appuntamenti è la peggiore. Tinder: Ora lascia che sia mamma a scegliere la tua prossima data.