1. Diritto penale e morale: due modelli di relazione
Il rapporto tra diritto e morale diventa “visibile e drammatico non tanto nei casi di affinità o di sovrapposizione tra i due ambiti, quanto nei possibili casi di conflitto tra essi”[1]. È in tali frangenti che affiorano, con maggiore nettezza, i presupposti fondanti dell’ordinamento penale, nonché i suoi limiti.
In quanto esseri umani, siamo inevitabilmente influenzati dai nostri valori morali[2]. Tali valori non vengono “neutralizzati” né “per il solo fatto di far parte di una società civile o di un ordinamento giuridico”[3], né “per il sol fatto di ricoprire qualche tipo di ruolo, ufficiale o meno”[4]. I possibili conflitti fra obblighi giuridici e obblighi morali interni sorgono per due motivi. In primo luogo perché il “diritto reclama supremazia”[5], ossia prevale, salvo deroga espressa, su qualunque altro obbligo di natura diversa. In secondo luogo, perché la vincolatività delle norme giuridiche è indipendente dal loro contenuto[6]: esse non obbligano perché intrinsecamente giuste o perché ritenute tali dal destinatario, bensì in virtù dell’autorità della loro fonte[7]. In tale prospettiva si colloca l’evoluzione del diritto penale moderno, che ha progressivamente abbandonato la repressione di condotte malum in se, ossia condotte intrinsecamente immorali, per orientarsi verso la repressione di condotte malum prohibitum, il cui disvalore deriva primariamente dalla loro contrarietà al diritto positivo. Ciò, come si vedrà, non ha comportato tuttavia una totale espulsione della dimensione morale dal diritto penale: essa continua a riemergere, seppure in forme indirette e mediate, all’interno di categorie fondamentali quali l’imputabilità, la colpevolezza e le cause di giustificazione.
Questioni classiche di questo tipo ritrovano ciclicamente popolarità all’interno del dibattito dottrinale e giurisprudenziale. Da ultimo, la rinnovata attualità è dovuta all’avvento delle nuove tecniche di intelligenza artificiale (IA). In particolare, i tentativi di creare “agenti morali artificiali”, ossia sistemi capaci di operare scelte conformi a criteri etici prestabiliti,[8] ci porta a considerazioni sempre più introspettive e a riflettere su alcuni dei presupposti morali impliciti nelle categorie penalistiche tradizionali[9]. Invero,
“Da sempre, il giurista osserva i fenomeni sociali e li analizza al fine di stabilire se essi possano essere ricompresi nella disciplina del diritto vigente […] o se viceversa appaia necessario innovare normativamente per regolarli o per regolarli meglio[10]”.
Il presente contributo muove dall’assunto che il diritto penale, pur non potendo eliminare del tutto la sua dimensione morale, non può nemmeno farsi carico di risolvere dilemmi etici mediante regole generali, né delegare tale compito a sistemi di IA. Sulla base di queste premesse, i paragrafi che seguono analizzeranno due possibili relazioni tra morale e diritto penale. La prima può essere qualificata come un prototipo di relazione identificativa[11]. ossia un’ipotesi in cui la morale viene impiegata per individuare il diritto applicabile; la seconda, invece, può essere definita come una relazione giustificativa, vale a dire un caso in cui l’ordinamento giuridico consente, entro certi limiti, la disapplicazione del precetto penale in ragione di un conflitto morale[12].
2. Imputabilità, capacità di intendere e limiti dell’analogia con l’IA
Un primo punto di contatto tra diritto penale e morale si può rinvenire nella nozione di imputabilità. Affinché un individuo possa essere ritenuto rimproverabile egli deve essere capace di intendere, cioè in grado di comprendere la natura della propria condotta, e capace di volere, cioè in grado di governare le proprie azioni o i propri impulsi in modo conforme a tale comprensione[13].
Il processo decisionale morale assume rilievo con riferimento al primo di tali requisiti, ossia per quanto concerne la comprensione o l’apprezzamento della natura del proprio agire. Tale concetto presenta declinazioni differenti nei moderni ordinamenti giuridici: in Germania l’imputabilità è espressamente collegata alla comprensione dell’antigiuridicità della propria azione[14]; il criterio M’Naghten, lo standard maggiormente adottato negli Stati Uniti, fa riferimento sia alla natura e qualità dell’atto, sia alla sua illiceità morale[15]; il Model Penal Code[16], invece, include nella sua formulazione di insanity defense sia la capacità di apprezzare l’antigiuridicità della propria azione che la capacità di apprezzare più genericamente l’illiceità della stessa. Inoltre, secondo la più recente pronuncia della Corte Suprema degli Stati Uniti in materia di infermità mentale (Kahler v. Kansas), il right-or-wrong test non costituisce una componente imperativa dell’insanity defense, che perciò può essere regolata dagli Stati senza includere tale elemento[17]. In altri termini, ai sensi di questo recente approdo giurisprudenziale statunitense, un soggetto può essere ritenuto imputabile anche qualora non abbia compreso il carattere moralmente riprovevole della propria condotta.
Nell’ordinamento italiano la capacità di intendere corrisponde ad un “pensare ordinato”[18], ricomprendendo al suo interno un “complesso armonico di condizioni psichiche”[19], quali l’abilità di “rendersi conto del valore sociale dell’atto che essa intende compiere, di prefigurarsene le conseguenze, di stabilirne gli effetti ed i mezzi per produrli”[20]. La comprensione della riprovevolezza e del disvalore sociale delle proprie azioni[21] sottintende anche la capacità di poter effettuare una valutazione morale sul proprio agire, ovverosia la capacità di distinguere ciò che è giusto da ciò che è sbagliato[22]. La capacità di intendere, così come concepita nel nostro ordinamento, quindi, non consiste esclusivamente nella capacità di fare scelte che siano eticamente accettabili, ma si struttura su livelli diversi. Il soggetto capace deve perciò:
“essere in grado di comprendere se la sua azione è buona o cattiva, comprenderne cioè, il valore morale, se è lecita o illecita, cioè il suo valore giuridico, e se, è utile o dannosa all’interesse comune, comprendere cioè il valore o disvalore sociale e quindi il carattere antidoveroso e proibito dell’azione stessa[23]”.
Secondo alcuni autori, vi è una generale resistenza sia in giurisprudenza che in dottrina ad interrogarsi se l’imputabilità implichi in capo al reo «un minimo di competenza morale», ossia se il concetto di razionalità “si nutra, oltre che delle capacità di pensiero logico (“ordinato”) anche del moral sense e dell’“appropriatezza” emotiva”[24]. In tal senso, sostiene Di Giovine, non sarebbe giusto “punire parimenti chi sente il significato di uccidere una persona e chi pensa che tale condotta equivalga a buttare mozziconi di sigaretta per strada”[25].
Passando ora all’analisi dei sistemi di IA: se la capacità di intendere fosse definita esclusivamente in termini di comprensione della causalità materiale di un’azione, allora questi sistemi di IA potrebbero, almeno in astratto, soddisfare senza difficoltà tale requisito[26]. In altri termini, i sistemi di IA sono in grado di conseguire una comprensione epistemica dei fatti rilevanti. Essi, infatti, possiedono una capacità di prevedere la probabilità che un evento sia fisicamente causato da una determinata azione (ossia di elaborare un modello causale) di gran lunga superiore a quella di un agente umano, grazie anche alla disponibilità di una base di conoscenze immensamente più ampia (i dati disponibili) e a capacità inferenziali più avanzate. È indubbio, pertanto, che i sistemi di IA possano apprendere, in modo esponenziale, un numero di regole della fisica incomparabilmente superiore a quello che qualsiasi essere umano potrebbe acquisire nell’arco di un’intera vita[27].
Peraltro, il rispetto delle norme giuridiche potrebbe forse essere incorporato nell’architettura del sistema di IA. È stato infatti sostenuto che sia possibile elaborare un “Bot Legal Code”, ossia una versione delle leggi direttamente interpretabile dalle macchine[28]. In linea teorica, i sistemi di IA potrebbero persino essere più inclini al rispetto della legge, poiché sono in grado di memorizzare un numero maggiore di norme rispetto agli esseri umani – potenzialmente l’intero corpus della legislazione penale di un ordinamento — e di non dimenticarle mai. Inoltre, l’effetto deterrente della pena potrebbe essere “programmato” nelle macchine, secondo “calcoli di costi-benefici puramente meccanici”[29]. Tuttavia, gli attuali sistemi di IA non sono in grado di percepire le norme in quanto tali e in modo autonomo, anche se si potrebbe sostenere, ad esempio, che le auto a guida autonoma sono già in grado di identificare e leggere direttamente le norme simbolizzate, ovvero i segnali stradali. Nondimeno, ad oggi i sistemi di IA richiedono sempre la mediazione (ovvero la programmazione) di un agente umano: devono essere istruiti sul fatto che una norma giuridica debba essere rispettata.
Nonostante il crescente interesse scientifico per lo sviluppo di artificial moral agents, i sistemi di IA non sono (ancora) in grado di compiere le operazioni cognitive sottese alla capacità di intendere, così come delineata poc’anzi. Difetta, in particolare, una caratteristica fondamentale sottostante alla nozione di imputabilità: la libertà di disattendere il precetto normativo. Da ciò discende la questione se tali sistemi possano essere assimilati, nell’ambito dell’ordinamento penale, a soggetti incapaci di intendere e di volere (c.d. Artificial Insane Offenders)[30]. Alcuni autori hanno sostenuto che un sistema di intelligenza artificiale possa essere accostato, sul piano concettuale, a un soggetto che, pur essendo incapace di comprensione morale, è comunque capace di deliberazione e azione prudenziale[31]. I sistemi di IA sarebbero dotati di “razionalità strumentale”: sarebbero quindi in grado di perseguire fini determinati e di adeguare la propria condotta a tali fini, tenendo conto delle possibili conseguenze delle proprie azioni, inclusa l’eventualità di incorrere in una sanzione penale (mostrando, dunque, prudenza in relazione all’aspettativa della punizione)[32]. Essi non possiedono però “la capacità emotiva di apprezzare la riprovevolezza morale del proprio comportamento e, conseguentemente, difettano di una motivazione intrinseca al rispetto della norma, salvo che tale conformità risponda a un interesse proprio”[33]. Eppure, ciò non sarebbe da ostacolo all’attribuzione di una responsabilità penale – seppure diminuita, nella forma di un’infermità parziale di mente – posto che tali autori rigettano la possibilità che l’assenza di capacità di agire per ragioni morali sia una condizione da sola sufficiente ad escludere l’imputabilità[34]. In conclusione, secondo altri autori, sarebbe più corretto parlare di mancanza di capacità giuridica penale dei sistemi di IA piuttosto che assenza di imputabilità, poiché i sistemi di IA non sono mai “capaci di autodeterminarsi in maniera consapevole, e di comprendere il significato dei precetti normativi […]. A difettare, infatti, è la stessa capacità “in astratto”, dei sistemi di i.a., di essere validi destinatari dei precetti penali e, dunque, soggetti del diritto penale”[35].
3. Dilemmi morali e stato di necessità
a. Struttura e possibili criteri di distinzione
I dilemmi etici possono essere definiti come scenari costruiti per evidenziare un conflitto tra due principi morali[36]-[37]. Il dilemma etico implica una decisione tra due linee di condotta moralmente incompatibili[38]. Esempi di dilemmi etici, oltre al famoso problema del carrello[39], includono casi di scuola come quello della zattera contesa dopo un naufragio o l’utilizzo di mezzi di tortura nei confronti di un terrorista al fine di prevenire una strage[40]. I paragrafi successivi si concentreranno su una particolare tipologia di dilemmi etici, ossia casi di conflitti “funzionali alla tutela della vita umana”[41]. Si tratta di casi, quindi, in cui un individuo è posto davanti a delle scelte tragiche[42] ove “ogni possibile condotta è – moralmente e giuridicamente – illecita”[43]. Preme ricordare fin da ora che il diritto penale non costituisce un sistema «chiuso»: esso fornisce criteri di orientamento, ma non è in grado, né lo sarà mai, di offrire risposte definitive a tutti i casi complicati[44].
I dilemmi etici vengono tradizionalmente suddivisi in personali e impersonali. Una violazione morale è considerata personale se “a) può ragionevolmente causare un danno grave, b) ad una persona specifica o ad uno o più membri di un gruppo specifico di persone, e c) se il danno non deriva dal tentativo da parte dell’agente di deviare verso terzi una minaccia esistente”[45]. Più di recente, è stata proposta una distinzione secondo due macro-categorie diverse che identifica da un lato i dilemmi «incidentali», vale a dire situazioni in cui “la morte di una o più persone è una conseguenza prevista ma non voluta di un’azione volta a salvare un numero maggiore di persone”[46] e dilemmi “strumentali”, detti anche “sacrificali”[47], in cui “la morte di una o più persone è un mezzo usato intenzionalmente per salvare più persone”[48]. In psicologia sperimentale dilemmi etici così strutturati vengono utilizzati per indagare il funzionamento dei processi cognitivi ed emozionali nelle nostre decisioni. Difatti, secondo la “teoria del doppio processo”, il nostro giudizio morale sarebbe “frutto di un conflitto tra un sistema “cognitivo”, relativamente lento, che opera in modo consapevole e impiega risorse cognitive, e un sistema “affettivo”, più rapido, che opera in modo automatico e si basa sull’intuizione”[49]. Secondo la psicologia cognitiva, i dilemmi morali incidentali vengono decisi quindi prevalentemente tramite processi cognitivi basati su un’analisi dei costi e dei benefici mentre nei dilemmi morali sacrificali prevalgono i processi emozionali (con il conseguente rifiuto dell’opzione «sacrificale»). Inoltre, rileva anche il coinvolgimento del soggetto che deve fare la scelta tragica: “nei dilemmi in cui anche la vita dell’agente è in pericolo, il sacrificio di un individuo per salvare se stesso e gli altri viene giudicato moralmente più accettabile rispetto ai dilemmi in cui l’agente non è in pericolo e il sacrificio permette di salvare solo le altre persone”[50]. Un esempio dei “nuovi” dilemmi morali sviluppati, in particolare di un dilemma morale strumentale con coinvolgimento, è il seguente:
“Sei il pilota di un elicottero da turismo e stai trasportando 4 persone in un volo panoramico sulle Alpi francesi, a circa 2000 metri di altezza. Ad un certo punto l’elicottero perde quota e non risponde più ai comandi. Lanci una richiesta di aiuto e tenti diverse manovre, ma l’elicottero continua a precipitare rischiando di schiantarsi contro una parete rocciosa. Per riacquistare quota, spingi la persona vicino a te fuori dall’elicottero. Sai che questa si schianterà a terra e morirà, ma tu e gli altri 3 riuscirete a salvarvi”[51].
Come tradurre quindi questi concetti in un linguaggio conosciuto dal penalista? Il pilota può essere ritenuto responsabile per la morte del passeggero da lui spinto fuori dall’elicottero? E se l’elicottero fosse pilotato da un sistema di IA totalmente autonomo, dovrebbe essere programmato per prendere questo tipo di decisioni?
Senza dubbio, si tratta di “esperimenti mentali ritenuti idonei a saggiare sul piano teorico la resistenza di determinati principi morali sulla linea di confine tra il bene e il male”[52]. Non si può che non esser d’accordo con chi afferma che tali “colpi di fioretto” fra filosofi “delimitano concetti tutt’altro che lontani dal campo d’azione […] dei penalisti”[53].
b. Dilemmi morali e stato di necessità
I dilemmi morali possono fornire spunti di riflessione nell’ambito dello stato di necessità, così come regolato dall’art. 54 del codice penale[54]. Ai sensi dell’art. 54, infatti, l’ordinamento penale rinuncia alla pretesa punitiva in casi in cui «si determina un rapporto di alternatività tra il salvataggio di un bene (in pericolo) e il sacrificio di un altro (offeso dal fatto criminoso giustificato), nel senso che il salvataggio del primo può avvenire solo col sacrificio del secondo e – per contro – il rispetto di quest’ultimo mediante l’astensione dal fatto criminoso comporta la perdita del bene in pericolo[55]. Lo stato di necessità può essere ricostruito in una prospettiva utilitaristica[56]. Tuttavia, come è stato osservato, “[…] da una prospettiva deontologica, si può sostenere che un fine buono non giustifica mai mezzi cattivi. Lo stato di necessità è qualcosa di più di un mero calcolo utilitaristico; altrimenti, l’uccisione di una persona al fine di espiantarne gli organi per salvare più pazienti dovrebbe essere considerata giustificata”[57].
La qualificazione giuridica dell’art. 54 c.p. quale causa di giustificazione o scusante è ampiamente dibattuta. Ci si è chiesti pertanto:
“[E]siste un principio generale che renda lecita la violazione della legge (o del precetto morale, religioso, di costume) quando tale violazione costituisca nella situazione concreta, il male minore, a fronte dell’esigenza di evitare un danno più grave? O piuttosto ci si deve limitare a scusare, a perdonare chi abbia agito trovandosi nella necessità cogente di scegliere tra due mali, ed abbia preferito il male altrui al male proprio, in tal modo comportandosi come qualunque persona non dotata di eroismo (magari lo stesso giudice, o, chissà, lo stesso confessore) si sarebbe comportata se si fosse trovata nella medesima situazione?”[58].
La questione non è di facile soluzione in quanto sono identificabili elementi che ripongono ai sensi di una e dell’altra tesi. Secondo una concezione oggettiva dello stato di necessità, questo si sostanzierebbe in una circostanza che esclude l’antigiuridicità della condotta in forza di un bilanciamento tra interessi contrapposti in situazioni in cui il danno ad uno di essi è inevitabile[59]. Secondo un secondo orientamento, lo stato di necessità sarebbe un’“espressione del principio dell’inesigibilità”[60] della condotta di un soggetto che agisce seguendo un irresistibile istinto di “conservazione”[61] che esclude la sua colpevolezza dell’agente[62].
Tale distinzione appare più difficile nel caso di situazioni riconducibili a conflitti fra doveri “insolvibili”, come quelli aventi ad oggetto vite umane.[63] Trattasi cioè di situazioni in cui non si ha a che fare con la facoltà riconosciuta in capo all’agente di “commettere un fatto di regola vietato da una norma incriminatrice, bensì l’eventuale sussistenza di un suo dovere di commettere il fatto medesimo”, come nello scenario del pilota di cui sopra[64]. In tale situazioni il soggetto ha, da un lato, “il dovere di astenersi dalla commissione di un fatto penalmente rilevante” e, dall’altro, l’ “opposto dovere di compiere il fatto medesimo, in presenza di particolari circostanze”[65]. Secondo un primo orientamento, lo stato di necessità avrebbe una funzione scusante in situazioni in cui è imposta la scelta fra più vite umane. Difatti,
“non sembra accettabile né una mera fungibilità degli uni con gli altri, né una semplicistica “mancanza di danno sociale” rispetto alla perdita degli uni o degli altri; là dove siano in gioco vite umane, in particolare, qualsiasi comparazione si rivela insostenibile qualunque scelta arbitraria: quando due soggetti sono in pericolo vita, un conto è che l’ordinamento non possa più praticamente proteggerli entrambi, altro conto che mostri teoricamente un’assoluta indifferenza per il sacrificio dell’uno o dell’altro, legittimando in tal modo a priori un asolidaristico impiego della forza e dell’astuzia di uno dei due”[66].
Secondo altri, ancora, non si avrebbe a priori una situazione di “non risolvibilità” del conflitto, posto che non si può parlare di antigiuridicità di una condotta ove non sia identificabile, all’opposto, una condotta doverosa e lecita che fungerebbe da «modello comparativo”. Quindi la soluzione sarebbe “affermare la liceità di entrambe le scelte possibili”[67], escludendone l’antigiuridicità.
In tali dilemmi, vi è senz’altro un profilo di inesigibilità della condotta, interpretabile quale “situazione di pressione psicologica, non necessariamente da intendersi quale emotività incontrollata, ma semplicemente in termini di conflitto motivazionale che interessa il soggetto nel momento in cui compie la scelta, conflitto che viene reputato meritevole di considerazione dall’ordinamento sulla base di una valutazione normativo-sociale”[68]. In tal senso, vi è chi suggerisce di distinguere, da un lato, situazioni in cui il conflitto di doveri è “interno”, ossia ove l’agente si trova «nella posizione di dover decidere tra il sacrificio di interesse proprio – o di un proprio caro – e un dovere che, vincolante sul piano del diritto, ha però la peggio sul fronte delle scelte soggettivamente condizionate”[69]. Tale situazione sarebbe sussumibile all’interno dell’inesigibilità della condotta che sarà pertanto non colpevole[70]. Dall’altro, vi sarebbero situazioni in cui il conflitto è esterno, ossia ha ad oggetto «un conflitto di doveri insolubile ma ““equidistante” per l’agente”, sussumibili nell’antigiuridicità della condotta, in quanto ad impossibilia nemo tenetur[71].
Seguendo questo ragionamento, il comportamento del pilota dell’elicottero di cui sopra rappresenta un conflitto tragico di doveri normativamente irrisolvibile rilevante sul piano della colpevolezza, anche in forza dell’impossibilità per un ordinamento giuridico di giustificare un calcolo utilitaristico avente ad oggetto la vita delle persone[72]. Infatti, ogni vita ha lo stesso valore e, perciò, non può essere sottoposta a bilanciamento[73]. D’altro canto, nel caso del chirurgo che, “consapevole che la separazione di due siamesi di pochi mesi richiederà la morte dell’una per consentire di salvare la vita all’altra porti a compimento l’operazione, con sacrificio di una delle bambine”[74] o della madre che “chiamata alla scelta di quale dei figli in pericolo di vita soccorrere, ne tragga in salvo uno, abbandonando l’altro al suo destino”, si renderebbe applicabile in via teorica lo stato di necessità scriminante. La condotta di questi due soggetti sarebbe lecita in quanto essi hanno fatto una scelta neutra perché esterni agli interessi coinvolti o, comunque, nel caso della madre, perché trattasi di una scelta fra “due doveri soggettivamente equivalenti”[75] in una situazione in cui l’evento lesivo è inevitabile. Nel caso in cui invece un padre spinga in mare un soggetto terzo innocente, impedendogli di salire sulla zattera, per trarre in salvo il figlio, si attribuirebbe un “rilievo scusante al “motivo profondamente umano” rappresentato dall’affetto paterno”, ossia l’”anormale motivazione che spinge imperiosamente il genitore ad attivarsi in favore del figlio, anche quando ciò vada a danno di terzi innocenti”[76]. In conclusione, condotte commesse sotto «lo stimolo imperioso dell’istinto di autoconservazione» di sé stessi e dei propri cari[77], comporterebbero l’applicabilità di uno stato di necessità “scusante”.
c. IA e scelte tragiche
Come è stato autorevolmente sostenuto, la “diversificazione dell’universo etico nelle società ad alto tasso di evoluzione scientifico-tecnologica”[78] ha determinato una progressiva “dilatazione del campo di intervento della giustificazione”[79]. In particolare, il diritto penale è sempre più esposto a casi c.d. “eticamente sensibili”, ossia casi difficili da regolare tramite soluzioni normative prestabilite[80]. Tale fenomeno risulta oggi ulteriormente accentuato dalla diffusione di sistemi di IA, i quali contribuiscono a moltiplicare le situazioni in cui l’agire umano si intreccia con processi decisionali automatizzati. In questo contesto, la categoria dell’antigiuridicità assume un ruolo centrale, in quanto è quella che, più di altre, ““apre” il reato a un confronto con gli interessi generali dell’intero ordinamento”[81]. Ne consegue che “[...] il penalista non può rifiutare la consapevolezza che anche il diritto penale vive, specie nelle manifestazioni più clamorose della modernità, interconnesso e calato nell’insieme normativo e nella molteplicità degli interessi del complessivo ordinamento-istituzione”[82].
I dilemmi morali devono essere maneggiati con cautela[83], soprattutto quando si tratta di sviluppare sistemi di IA. Difatti,
“[…] vengono utilizzati nell’apprendimento automatico per fornire situazioni nelle quali non è disponibile alcuna opzione eticamente accettabile per l’agente (artificiale) chiamato a decidere. Tuttavia, affermare che si desidera che un sistema autonomo minimizzi gli esiti non etici in tali circostanze presuppone che si sappia già quali siano gli esiti non etici da minimizzare, ossia che le rilevanti questioni meta-etiche siano state previamente risolte”[84].
Inoltre, come affermato in apertura di questo contributo, allo stato attuale non è possibile qualificare i sistemi di IA quali agenti morali «autentici» facenti parte della nostra comunità e, in quanto tali, destinatari delle medesime regole etiche e giuridiche degli esseri umani[85]. Né vi è consenso, sul piano filosofico, circa l’effettiva attribuzione di responsabilità morale in capo a questi, sebbene alcune evidenze sperimentali mostrino che gli esseri umani tendano talvolta ad ascrivere ai robot livelli di responsabilità comparabili, o persino superiori, a quelli attribuiti ad agenti umani in scenari funzionalmente equivalenti[86]. Cosa possono mostrare quindi i dilemmi etici al penalista chiamato a confrontarsi con una società in cui l’agire è sempre più il risultato di una cooperazione – o di una sovrapposizione – tra agenti umani e artificiali?
Riprendendo l’esempio dell’elicottero già menzionato[87], ci si trova dinanzi a un classico conflitto di doveri: il pilota è gravato dall’obbligo di tutelare l’incolumità di tutti i passeggeri, senza che l’ordinamento fornisca criteri normativi idonei a legittimare il sacrificio intenzionale di uno di essi per salvare gli altri. Si tratta di una situazione, si è già detto, che può essere descritta come “normativamente ingovernabile”[88] e che rileva, più che sul versante della giustificazione, su quello dell’inesigibilità della condotta conforme al diritto. Ipotizziamo ora che l’elicottero sia pilotato da un sistema di IA – ipotesi tutt’altro che remota[89] – e che la situazione posta dinanzi al sistema sia la medesima. Quest’ultimo, innanzitutto, non si troverà in una situazione di coazione emotiva, in quanto non percepirà la tragicità della scelta. Peraltro, è senz’altro possibile programmare sistemi di IA in modo che possiedano una sorta di “intuizione” meccanica, simile al nostro sistema “affettivo”, ossia che siano in grado di effettuare un calcolo molto veloce, basato su scale di valori predeterminati, che porti ad una determinazione automatica e probabilistica del “male minore”. Sebbene sia tecnicamente possibile progettare tali sistemi, ciò che dovrebbe essere evitato è l’attribuzione al sistema stesso del potere di adottare autonomamente la decisione esecutiva finale. È possibile, senza snaturarne il significato, trasformare ciò che il diritto penale valuta ex post come limite dell’esigibilità (o come fattore scriminante) in una serie di criteri definiti ex ante per determinare la scelta “corretta” in scenari tragici? Nella prassi, infatti, l’applicazione di una causa di giustificazione o di una scusante passa necessariamente per una valutazione in concreto effettuata caso per caso. Ciò si pone come ostacolo ad un’eventuale standardizzazione delle possibili soluzioni giuridiche ad un dilemma morale.
Resta poi il problema delle modalità di addestramento del sistema: il trasferimento delle conoscenze dovrà avvenire attraverso l’intervento degli esperti, chiamati a formare i sistemi di IA così come hanno formato, in precedenza, le generazioni successive di piloti. Un approfondimento di tali aspetti richiederebbe un’analisi autonoma, che non può essere svolta nell’ambito del presente lavoro[90].
Infine, un impiego simile dell’IA non implica necessariamente uno scenario distopico in cui la tecnologia “decide” della vita umana. Al contrario, la valutazione automatizzata potrebbe costituire uno strumento di supporto idoneo ad attivare sistemi di allerta e a rimettere la decisione ultima a un agente umano, il cui processo decisionale, pur restando dilemmatico, risulterebbe almeno parzialmente svincolato dalle pressioni emotive legate ad un coinvolgimento personale. Qualora l’introduzione di sistemi di IA riduca significativamente il rischio complessivo di incidenti, non appare forse necessario giuridicizzare ogni residuo evento dannoso. Tale conclusione non è estranea alla disciplina dei sistemi complessi, se si considera la Normal Accident Theory[91], secondo cui nei sistemi tecnologici complessi e ad alto rischio il verificarsi di incidenti costituisce un esito strutturalmente inevitabile, piuttosto che un’anomalia imputabile a singole scelte colpevoli[92],
In ultima battuta, i dilemmi etici non sarebbero traducibili in regole decisionali programmabili, anche perché “interpretando la scelta morale come una procedura di problem solving, sfiorisce la tragicità del dilemma, la tragicità dell’interrogativo, in nous dell’esistere dell’umano”[93].
4. Riflessioni conclusive
Nei paragrafi precedenti si è cercato di fornire alcune riflessioni attinenti a questioni etiche che potrebbero concretizzarsi in questioni giuridiche[94]. L’avvento dei sistemi di IA, lungi dal semplificare tale confronto, contribuisce ad accentuarne la problematicità. Il senso di disorientamento che si prova nel trattare di questi interrogativi è dettato anche dal fatto che “in fondo, l’alternativa tra “legittimo” e “illegittimo” non può mai essere del tutto indipendente da quella tra “bene” e “male”, salvo rincorrere impostazioni di teoria pura del diritto tanto rigoristiche da finire per risultare chimeriche o, forse, distopiche”[95]. La speranza è che queste brevi riflessioni fungano da ponte tra il penalista alle prese con questioni complesse e le altre branche del sapere, in particolare quello filosofico ma non solo. Questa d’altronde è una delle caratteristiche dell’IA moderna: è oggetto di curiosità e di discussione da parte di tutti, senza discriminazioni.
[1] G. Pino, Diritto e morale, in G. Bongiovanni, G. Pino, C. Roversi (a cura di), Che cosa è il diritto. Ontologie e concezioni del giuridico, Torino, Giappichelli, 2016, p. 5.
[2] Sullo sviluppo progressivo degli standard morali, ex multis, V. Mastronardi, L.M. Desimoni, N. Ventura, Imputabilità, coscienza morale e psicopatologia. Profili comparatistici internazionali, «Rivista di Psichiatria», 2012, 47(4, suppl. 1), pp. 17S-25S.
[3] Pino, Diritto e morale, cit., p. 5.
[4] Ibid.
[5] Ibid.
[6] Sulla fattispecie incriminatrice e la sua funzione di narrazione plastica dell’ingiusto si veda M. Papa, La fattispecie incriminatrice come “forma simbolica”, «Criminalia», 2025.
[7] Pino, Diritto e morale, cit., p. 6.
[8] Il tema è stato già brevemente affrontato in questa Rivista, cfr. A. Giannini, Navigating the Grey Area: brevissime riflessioni su IA, “nuovi” dilemmi morali e responsabilità penale, «Giustizia Insieme», 17 aprile 2023. Questo articolo si pone quale naturale conseguimento delle riflessioni ivi sviluppate.
[9] Ex multis, L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano, Raffaello Cortina, 2017.
[10] G. Fornasari, Dilemma Etico del Male Minore e Ticking Bomb Scenario, Napoli, ESI, 2020
[11] Pino, Diritto e morale, cit., p.17.
[12] Ivi, p. 23. Si potrebbe sostenere che le cause di giustificazione, come lo stato di necessità, ricadano invece all’interno della categoria dei rapporto di rinvio: “la relazione contenutistica tra diritto e morale può assumere la forma di una relazione di rinvio: il diritto può richiedere o permettere, ai cittadini, o agli organi dell’applicazione, di compiere valutazioni morali”. Pino, Diritto e morale, cit., p.14.
[13] S. Bonicalzi, P. Haggard, Responsibility Between Neuroscience and Criminal Law. The Control Component of Criminal Liability, «Rivista internazionale di Filosofia e Psicologia», vol. 10, n. 2, 2019, p. 110.
[14] § 20 Schuldunfähigkeit wegen seelischer Störungen, Strafgesetzbuch (StGB)-
[15] M’Naghten’s Case, 10 Cl. & Fn 200, 8 Eng. Rep. 718 (H.L. 1843).
[16] American Law Institute, Model Penal Code, § 4.01(1), 1985.
[17] Si veda A. Giannini, Mad or bad? Una riflessione comparata su imputabilità ed insanity defense a partire dalla sentenza della Corte Suprema degli Stati Uniti Kahler v. Kansas, «Rivista italiana di medicina legale e del diritto in campo sanitario», n. 1-2, 2024, p. 53 ss.
[18]L. Lanza, Imputabilità e pericolosità sociale: problematiche peritali e percorsi, in Il reo e il folle. Obiettivo sulla psicopatologia penitenziaria e trasgressiva, Firenze, Polistampa, 2006, p.36.
[19] Ibid.
[20] Ibid.
[21] Ex multis Cass. pen., sez. V, 25 febbraio 2025, n. 12283; Cass. pen., sez. V, 8 marzo 2023, n. 22659.
[22] G. Parmigiani et al., Free will, neuroscience, and choice: towards a decisional capacity model for insanity defense evaluations, «Rivista di Psichiatria», 2017, 52(1), p. 13. Si veda anche G. Parmigiani et al., Validation of a new instrument to guide and support insanity evaluations, «Translational Psychiatry», 2022, p. 4: «The first DIASS factor, which we named “epistemic component” comprised five items referring to the knowledge /understanding of the crime context (A1), appreciation of the criminal behavior through the subjective moral standard (B1), and reasoning about the possibility of non-acting/alternative choices (C1), about consequences -pros and cons (C2) and integration of relevant information (C3)».
[23] L.M. Dattoli, L’incidenza dei disturbi della personalità sulla capacità di intendere e volere, «Crimen et Delictum», VIII, 2014, p. 118. «L’intendere è la capacità di apprezzamento e di previsione della portata delle proprie azioni od omissioni sia sul piano giuridico e sociale sia su quello morale. Non è necessario che l’individuo sia in grado di giudicare che la sua azione è contraria alla legge, per considerarlo capace di intendere è sufficiente che possa genericamente comprendere che essa contrasta con le esigenze della vita in comune. La capacità di intendere è una nozione che si identifica nel concetto di consapevolezza di sé, del proprio rapporto con l’esterno e del significato dei valori sociali. Tale facoltà non si riferisce unicamente alla cosiddetta intelligenza, valutabile attraverso i reattivi mentali, ma si intende comprendere la globalità delle risorse intellettive, logiche, relazionali e morali dell’individuo. La capacità di intendere, infatti, prevede la possibilità di utilizzazione di un valido ragionamento ipotetico-deduttivo; la facoltà di percepire e interpretare correttamente la situazione e sé stessi all’interno di essa; la possibilità di formulare prospettive temporali e sociali. Per valutare questa capacità si esaminano le modalità di utilizzazione delle funzioni cognitive al momento del fatto, come la possibilità di anticipare gli effetti connessi all’azione comprendendone il significato», C. Di Pasquale, Imputabilità, psicopatia e pericolosità sociale, Associazione Italiana di Psicologia Giuridica, 2009, p. 6.
[24] O. Di Giovine, Dilemmi morali e diritto penale. Istruzioni per un uso giuridico delle emozioni, Torino, Giappichelli, 2022, p. 140-141.
[25] Di Giovine, I dilemmi morali nel diritto penale, cit., p. 143.
[26] F. Lagioia, G. Sartor, AI Systems under Criminal Law, «Philosophy & Technology», Vol. 33, 2020, p. 16. Esempi di causalità materiale potrebbero essere il fatto che avvicinare una fiamma particolarmente forte ad un edificio ne provocherà l’incendio oppure che tenere la testa di una persona sott’acqua ne causerebbe la morte. W.R. LaFave, Modern Criminal Law, St. Paul, Thomson West, 1988, p. 441.
[27] A. Giannini, Artificial Intelligence and Criminal Responsibility, The Hague, Eleven International Publishing, 2023, p. 128.
[28] E. Mokhtarian, The Bot Legal Code: Developing a Legally Compliant Artificial Intelligence, «Vanderbilt Journal of Entertainment and Technology Law», 2020, vol. 21, p. 145.
[29] S. Chopra, L. White, A Legal Theory for Autonomous Artificial Agents, Ann Arbor, University of Michigan Press, 2011, p. 166; E. Nerantzi, G. Sartor, ‘Hard AI Crime’: The Deterrence Turn, «Oxford Journal of Legal Studies», 2024, pp. 673 ss.
[30] Si veda anche E. Nerantzi, “All AIs are Psychopaths”? The Scope and Impact of a Popular Analogy, «Philosophy & Technology», 2025, pp. 38 ss.
[31]Lagioia, Sartor, AI Systems under Criminal Law, cit., p. 17.
[32] Ibid.
[33] « […] the emotional capacity to appreciate the moral wrongness of their behaviour, and thus lack the motivation to comply, unless compliance is in their interest», Lagioia, Sartor, AI Systems under Criminal Law, cit., p. 17.
[34] Ibid.
[35] B. Fragasso, Responsabilità penale e intelligenza artificiale, Milano, 2022, p. 78, nt. 102. Tuttavia, non può dirsi acquisito, neppure sul piano filosofico, che gli esseri umani escludano in modo univoco l’attribuzione di responsabilità morale agli agenti di intelligenza artificiale.[35] Una serie di studi empirici suggerisce, infatti, che gli individui attribuiscono ai robot responsabilità morale o biasimo in misura analoga talvolta persino superiore, a quella attribuita agli agenti umani, mostrando altresì, in determinati contesti, una disponibilità — quantomeno implicita — a riconoscere agli agenti artificiali elementi soggettivi di rilevanza penale. M.T. Stuart, M. Kneer, Guilty Artificial Minds: Folk Attributions of Mens Rea and Culpability to Artificially Intelligent Agents, «Proceedings of the ACM on Human-Computer Interaction», 5(CSCW2), 2021, p.3 e gli esperimenti ivi richiamati.
[36] Giannini, Navigating the Grey Area: brevissime riflessioni su IA, “nuovi” dilemmi morali e responsabilità penale, cit.
[37] B. Monin, D.A. Pizarro, J.S. Beer, Deciding versus Reacting: Conceptions of Moral Judgment and the Reason-Affect Debate, «Review of General Psychology», vol. 11, n. 2, 2007, p. 101.
[38] Monin, Pizarro, Beer, Deciding versus Reacting, cit., p. 102.
[39] P. Foot, The Problem of Abortion and the Doctrine of the Double Effect, «Oxford Review», vol. 5, 1978; J.J. Thomson, The Trolley Problem, «The Yale Law Journal», n. 66, 1985, pp. 1395-1415.
[40] Cfr. Fornasari, Dilemma Etico del Male Minore e Ticking Bomb Scenario, cit. Si vedano in particolare pp. 18- 43 per una discussione approfondita dei dilemmi etici a partire dal dilemma del carrello.
[41] F. Viganò, Stato di necessità e conflitto di doveri. Contributo alla teoria delle cause di giustificazione e delle scusanti, Milano, ré, 2000, p.507.
[42] Sono state definite come scelte in cui «il decisore è conscio che le sue determinazioni possono riverberarsi, potenzialmente o fattualmente, a breve o a medio termine, in esiti gravemente pregiudizievoli per i soggetti la cui posizione non abbia ricevuto una tutela compiuta, evidentemente in conseguenza della considerazione di esigenze contrapposte e, in definitiva, della posizione di altri». P. Passaglia, Questioni etiche e scelte tragiche tra corti e legislatori, «DPCE Online», 2024, p. 81. Non si affronterà funditus in questo contributo il tema molto dibattuto delle «scelte tragiche» poste in essere nell’ambito dell’attività medica, anche in relazione all’epidemia da Covid-19. Si rimanda per una discussione del tema ex multis: G. Losappio (a cura di), Scelte tragiche. Atti del III convegno “Medicina e diritto penale” (Taranto, 11 dicembre 2020), Taranto, Edizioni DJSGE, 2021. Si veda anche su questa Rivista L’intervista di R. Conti, a Philip Bobbitt, Tragic choices, 42 anni dopo. Philip Bobbitt riflette sulla pandemia, «Giustizia Insieme», 17 maggio 2020.
[43] Viganò, Stato di necessità e conflitto di doveri. Contributo alla teoria delle cause di giustificazione e delle scusanti, p.507.
[44] Di Giovine, I dilemmi morali nel diritto penale, cit., p. 167.
[45] A. Manfrinati, M. Sarlo, L. Lotto, Un nuovo set di 60 dilemmi morali: dati normativi italiani per giudizi di accettabilit`a morale, tempi di decisione e valutazioni emozionali, «Giornale italiano di psicologia», 2013, p. 213.
[46] Ibid. Il dilemma del carello è considerato un esempio di dilemma morale impersonale. È strutturato come segue: immagina che «un carrello ferroviario senza controllo si stia dirigendo verso cinque operai che stanno lavorando sui binari. L’unico modo per salvarli è quello di azionare uno scambio e indirizzare il carrello verso un binario secondario, dove però si trova un altro operaio che, investito dal carrello, morirà. È moralmente accettabile azionare lo scambio per deviare il carrello?». Manfrinati, Sarlo, Lotto, Un nuovo set di 60 dilemmi morali: dati normativi italiani per giudizi di accettabilità morale, tempi di decisione e valutazioni emozionali, cit., p. 213.
[47] F. Del Popolo Cristaldi, G.P. Palmiotti, L. Lotto, M. Sarlo, Dilemmi morali e framing emozionale: Effetti sulla presa di decisione, Conference: XXIII Annual Meeting of the Italian Psychological Association (AIP) – Experimental Psychology Section, 2017.
[48] Manfrinati, Sarlo, Lotto, Un nuovo set di 60 dilemmi morali: dati normativi italiani per giudizi di accettabilità morale, tempi di decisione e valutazioni emozionali, cit., p. 214. Il footbridge dilemma è un esempio di dilemma strumentale (v. J. Thomson J, Rights, Restitution, and Risk: Essays in Moral Theory, Cambridge, MA: Harvard University Press 1986). Immagina che «l’unico modo per fermare il carrello ferroviario senza controllo e salvare i cinque operai consiste nello spingere uno sconosciuto corpulento giù da un ponte. Lo sconosciuto verrà ucciso dal carrello, ma il suo peso ne fermerà la corsa e i cinque operai saranno salvi».
[49] Ivi, p. 213.
[50] Manfrinati, Sarlo, Lotto, Un nuovo set di 60 dil"emmi morali: dati normativi italiani per giudizi di accettabilità morale, tempi di decisione e valutazioni emozionali, cit., p. 214.
[51] Manfrinati, Sarlo, Lotto, Un nuovo set di 60 dilemmi morali: dati normativi italiani per giudizi di accettabilità morale, tempi di decisione e valutazioni emozionali, cit., p. 217.
[52] Fornasari, Dilemma Etico del Male Minore e Ticking Bomb Scenario, cit., p. 25.
[53] Ibid.
[54] Si veda, ex multis: F. Viganò, Stato di necessità e conflitti di doveri. Contributo alla teoria delle cause di giustificazione e delle scusanti, Milano, Giuffrè, 2000.
[55] F. Palazzo, Corso di diritto penale. Parte generale, IX ed., Torino, Giappichelli, 2023, p. 388.
[56] Di Giovine, I dilemmi morali nel diritto penale, cit., p. 177. Sul diverso orientamento che qualifica lo stato di necessità quale causa di esclusione della colpevolezza, ivi, p. 182.
[57] J. Blomsma, Mens Rea and Defences in European Criminal Law, Oxford–Portland, Hart Publishing, 2012, p. 372.
[58] Viganò, p. 32.
[59] Palazzo, Corso di diritto penale. Parte generale, p. 372.
[60] Viganò, Stato di necessità e conflitto di doveri. Contributo alla teoria delle cause di giustificazione e delle scusanti, p. 32.
[61] Palazzo, Corso di diritto penale. Parte generale, p.389.
[62] Palazzo identifica quali «indizi» di un’impostazione soggettiva dello stato di necessità: l’applicazione della circostanza esclusivamente ai casi di danno grave alla persona, in quanto in una visione oggettivistica dovrebbe essere rilevante esclusivamente il risultato del bilanciamento, ossia che prevalga un interesse pari o maggiore di quello che soccombe; l’applicabilità della norma esclusivamente ai casi in cui il pericolo non è causato volontariamente dall’agente, in quanto il legislatore vuole limitare l’applicabilità oggettiva dell’esimente. È indizio di un’impostazione oggettiva dello stato di necessità: l’applicabilità dell’art. 54 c.p. anche ai fatti commessi ai danni di terzi innocenti, in quanto soddisfa l’esigenza dell’ordinamento di far sì che l’interesse prevalente sia sempre salvato, a prescindere da chi realizzi il salvataggio; l’esclusione dell’applicabilità della circostanza a chi ha il dovere di esporsi al pericolo, ad es. un vigile del fuoco – in quanto la situazione di pericolo può esercitare una forma di coazione psicologica anche su chi è addestrato a gestirlo. Palazzo, Corso di diritto penale. Parte generale, pp. 389-397.
[63] Viganò, Stato di necessità e conflitto di doveri. Contributo alla teoria delle cause di giustificazione e delle scusanti, p. 475. Si veda anche E. Mezzetti, «Necessitas non habet legem?». Sui confini tra “impossibile” ed “inesigibile” nella struttura dello stato di necessità, Torino, Giappichelli, 2000.
[64] Ibid.
[65] Viganò, Stato di necessità e conflitto di doveri. Contributo alla teoria delle cause di giustificazione e delle scusanti, p. 476.
[66] M. Romano, Cause di giustificazione, cause scusanti, cause di non punibilità, in «Riv. it. dir. proc. pen. », 1990, p. 62.
[67] Viganò, Stato di necessità e conflitto di doveri. Contributo alla teoria delle cause di giustificazione e delle scusanti, cit., p. 540.
[68] S. Prandi, Inesigibilità e contesti di crisi Il diritto penale alla ricerca del limite, Tesi di dottorato – Università degli Studi di Genova, 2025, p. 210.
[69] Ivi, p. 213.
[70] Ex multis: G. Fornasari, Principio di inesigibilità nel diritto penale, Cedam, Padova, 1990.
[71] Viganò, Stato di necessità e conflitto di doveri. Contributo alla teoria delle cause di giustificazione e delle scusanti, cit., p. 549.
[72] Un caso noto è quello deciso dal Bundesverfassungsgericht – BvR (la Corte Costituzionale federale tedesca) nel febbraio 2006 avente ad oggetto la costituzionalità dell’art. § 14(3) della legge del 2005 sulla sicurezza della navigazione aerea (Luftsicherheitsgesetz), norma utilizzabile nei casi di dirottamento aereo. Tale articolo permetteva l’utilizzo diretto di forza contro aerei civili, su autorizzazione del Ministro della difesa, se, in base alle circostanze del caso, si può presumere che l’aeromobile sarà utilizzato per distruggere vite umane e l’uso diretto della forza è l’unico mezzo per scongiurare questo pericolo imminente (Luftsicherheitsgesetz (LuftSiG), 11. Januar 2005 (BGBl. I S. 78). Nel caso di specie, il BvR ha sostenuto che «l’uso diretto della forza, qualora l’aeromobile venga utilizzato per distruggere vite umane, è incompatibile con il diritto alla vita di cui all’articolo 2 della Legge fondamentale, in combinato disposto con la garanzia della dignità umana di cui all’articolo 1 della Legge fondamentale, nella misura in cui sarebbero coinvolte persone innocenti a bordo dell’aeromobile». Preme notare tuttavia che il BvR non si è espresso sulla responsabilità penale diretta dei soggetti che eseguono un abbattimento di un aereo civile in caso di depistaggio, né sulla responsabilità di coloro che hanno ordinato l’abbattimento.
BVerfGE, 15.2.2006 – 1 BvR 357/05.
[73] BVerfGE, 15.2.2006 – 1 BvR 357/05, para. 85.
[74] Prandi, Inesigibilità e contesti di crisi Il diritto penale alla ricerca del limite, p. 214.
[75] Ibid.
[76] Viganò, Stato di necessità e conflitto di doveri. Contributo alla teoria delle cause di giustificazione e delle scusanti, cit., p. 545.
[77] Viganò, Stato di necessità e conflitto di doveri. Contributo alla teoria delle cause di giustificazione e delle scusanti, cit., p. 532.
[78] F. Consulich, Lo statuto penale delle scriminanti. Principio di legalità e cause di giustificazione: necessità e limiti, Giappichelli, Torino, 2018, p. 38
[79] Ibid.
[80] Ibid.
[81] R. Bartoli, Incriminazione e giustificazione: una diversa legalità, «Rivista italiana di diritto e procedura penale», 2010, n. 2, p. 598.
[82] F. Palazzo, Costituzione e scriminanti, «Rivista italiana di diritto e procedura penale», 2009, vol. 52, fasc. 3, p. 1038
[83]« To be clear, I am a fan of trolley dilemmas as scientific tools, not as normative guides. Trolley dilemmas are useful, not because they are representative, but because they are artificial high-contrast stimuli that enable us to dissociate cognitive processes that are otherwise hard to dissociate. The understanding that we gain from studying trolley dilemmas (etc.) helps us understand why we shouldn’t rely on them for normative guidance», J.D. Greene, The rat-a-gorical imperative: Moral intuition and the limits of affective learning, «Cognition», vol. 167, 2017, p 76.
[84] T. LaCroix, Moral Dilemmas for Moral Machines, «arXiv:2203.06152», 2022, p.15
[85] Giannini, Artificial Intelligence and Criminal Responsibility, cit., p. 231.
[86] M. T. Stuart, M. Kneer, Guilty Artificial Minds: Folk Attributions of Mens Rea and Culpability to Artificially Intelligent Agents, Proceedings of the ACM on Human-Computer Interaction 5, CSCW2, 2021, p. 4, e gli esperimenti ivi citati.
[87] Sei il pilota di un elicottero da turismo e stai trasportando 4 persone in un volo panoramico sulle Alpi francesi, a circa 2000 metri di altezza. Ad un certo punto l’elicottero perde quota e non risponde più ai comandi. Lanci una richiesta di aiuto e tenti diverse manovre, ma l’elicottero continua a precipitare rischiando di schiantarsi contro una parete rocciosa. Per riacquistare quota, spingi la persona vicino a te fuori dall’elicottero. Sai che questa si schianterà a terra e morirà, ma tu e gli altri 3 riuscirete a salvarvi. Manfrinati, Sarlo, Lotto, Un nuovo set di 60 dilemmi morali: dati normativi italiani per giudizi di accettabilità morale, tempi di decisione e valutazioni emozionali, cit., p. 217.
[88] M. S. Dafauce, Il conflitto vita contro vita nel diritto penale, «Ricerche giuridiche», 8, 2019, p. 22, No. 25.
[89] Si veda ad esempio la società ShieldAI che, insieme a Airbus U.S., ad agosto del 2025 ha annunciato di aver concluso il primo volo di un elicottero H145 esclusivamente sotto la guida del software Hivemind. ShieldAI, press release, Airbus and Shield AI Accomplish First Autonomous Aerial Logistics Connector Helicopter Flight, 19 agosto 2025.
[90] Si veda F. Santoni De Sio, il quale, partendo da una discussione sullo stato di necessità (necessity) così come inteso nel sistema angloamericano, valuta come principi e norme possano essere utilizzati per individuare linee guida ragionevoli per risolvere la questione etica della regolamentazione della programmazione dei veicoli autonomi in situazioni di emergenza. F. Santoni De Sio, Killing by Autonomous Vehicles and the Legal Doctrine of Necessity, «Ethic Theory Moral Prac», 20, 2017. Si veda anche A. D’Amato et al., Exceptional Driving Principles for Autonomous Vehicles, «J. L. & Mob», 2022
[91] C. Perrow, Normal Accidents: Living With High-Risk Technologies, Basic Books, 1984.
[92] Si veda anche F. Centonze, La normalità dei disastri tecnologici. Il problema del congedo dal diritto penale, Milano, Giuffrè, 2004.
[93] M. B. Saponaro, L’insostenibile leggerezza del tragico, in M. Lo Sappio ( a cura di), Scelte tragiche. Atti del III convegno “Medicina e diritto penale”. Taranto, 11 dicembre 2020, Quaderni del dipartimento jonico, Taranto, 2020, p. 85.
[94] Passaglia, Questioni etiche e scelte tragiche tra corti e legislatori, cit., p. 78
[95] Ibid. 78
