La decisione della Corte Suprema degli Stati Uniti in ordine alla sospensione della celebre sentenza “Roe vs Wade” in materia di accesso a servizi di interruzione della gravidanza erogati dai singoli Stati della Federazione, ha suscitato un gigantesco dibattito.
Al di là del merito della questione – che ovviamente non interessa una rivista di informatica – i giudici supremi americani hanno lanciato l’ennesimo segnale di profonda diversità di approccio nelle culture giuridiche americana ed europea, per quanto attiene a determinati aspetti della tutela dei diritti individuali e di cittadinanza. Questa non è ovviamente la sede adatta a una discussione di natura giuridica. Ma le implicazioni che questa diversa sensibilità può avere nei “nostri” ambiti tecnologici, sono profonde, e devono indurre a una riflessione. E forse, a una ulteriore “call to action”.
Sono trascorsi due anni – la decisione della Corte di Giustizia Europea risale al 16 luglio del 2020 – dall’annullamento del trattato “Privacy Shields” che regolava gli scambi a scopi commerciali di informazioni di carattere personale tra membri dell’Unione e Stati Uniti. Due anni dopo, il Trans-Atlantic Data Privacy Framework sta cercando di riallacciare i fili di una politica comune sulla privacy che ancora non è del tutto definita. In una intervista al Washington Post dello scorso otto giugno, il commissario europeo per la Giustizia, il belga Didier Reynders, si dice ottimista sul fatto che il nuovo accordo possa reggere i reciproci vagli legali.
Anche se l’ottimismo di Reynders dovesse rivelarsi giustificato, un nuovo accordo sulla tutela della privacy digitale non esaurisce affatto lo spettro delle possibili divergenze sul tema dei diritti. Divergenze che inevitabilmente si ripercuotono sui contratti di servizio che le aziende europee stipulano con provider tecnologici d’oltreoceano. All’orizzonte, si intravedono già gli iceberg della discussione che ci attende sul tema del software di intelligenza artificiale come soggetto giuridico e sui livelli di responsabilità riconosciuti nelle corti di giustizia verso azioni e decisioni prese con il supporto o col solo intervento diretto di certi algoritmi.
Quando entrano in gioco le differenze culturali e legali, non è sempre possibile far valere la capacità di conciliazione di un accordo. Tutti gli accordi nascono da contesti fatti di opinioni e punti di vista che possono tranquillamente variare nel corso del tempo, come dimostra la storia recente degli accordi che abbiamo dovuto formulare solo per quanto attiene alla privacy. Quando si tratterà di scalare la montagna della responsabilità civile in materia di intelligenza artificiale e machine learning, è sicuramente poco realistico continuare a immaginare che siano gli accordi-quadro a risolvere una contraddizione di fondo: la difficoltà di imporre a un soggetto commerciale il rispetto di regole definite da qualcun altro.
La via d’uscita più elegante e duratura da questa contraddizione passa per un colossale (ma possibile) sforzo di riequilibrare le differenze in termini di capacità di ideazione, implementazione e erogazione dei servizi tecnologici da cui sostanzialmente dipendiamo come europei. Oggi, le aziende europee che vogliono fare business digitale vivono una difficile relazione di sudditanza da fornitori che appartengono a una sfera culturale e giuridica divergente. Ma non si può pensare di pianificare la propria trasformazione scommettendo ogni volta sull’efficacia del Trans-Atlantic Data Privacy Framework del momento. L’impegno, doveroso, sugli accordi non può prendere il posto di una seria politica di sviluppo di un’offerta tecnologica adeguata al contesto giurisdizionale cui l’Europa non vuole – e non deve – rinunciare.