Vai al contenuto

Etica. Innovazione tecnologica e Gestione delle Persone Un approccio filosofico al problema

Come valutare da un punto di vista “etico” l’innovazione tecnologica?

Nella sua essenza, il problema non è nuovo: se lo poneva già Socrate criticando l’uso della Scrittura sostenuta nel Fedro di Platone. Scriveva il filosofo che se la Scrittura può essere un rimedio per la memoria, in realtà diventa l’opposto in quanto dà l’apparenza ma non la realtà della sapienza. Mutatis mutandis pensiamo come questo pensiero sia attuale per i nostri studenti che vedono Internet come sostituto dello “studio”

Il problema cambia aspetto in funzione del tipo di etica che si abbraccia:

se abbracciamo l’approccio utilitaristico di Leremy Bentham che si basa sulla massimizzazione della felicità e sulla riduzione della sofferenza sicuramente nel breve periodo potremmo dire che il progresso tecnologico non può che essere positivo;

diverso e se abbracciamo un Etica del dovere o deontologia di Immanuel Kant dove un’azione è giusta o sbagliata in sé, indipendentemente dalle conseguenze. il problema ha molte risposte possibili e molte più sfaccettature.

Alcune Fondazioni e Associazioni sono arrivate a proporre un vero e proprio Assestment (TEA) per verificare l’eticità di una scoperta tecnologica o di un’innovazione

I più accreditati TEA si basano sulla teoria dei sistemi, una prospettiva che concettualizza la società in termine di causa ed effetto e relazioni tra i vari componenti del sistema stesso di cui la tecnologia è una sola delle componenti: in questo caso l’approccio riprende in modo nuovo la teoria utilitaristica: si “bocciano” quelle azioni dove l’output (il valore complessivo) non compensa l’input in termini di efficienza o correttezza.

In realtà la tecnica dell’Assestment non risolve il problema etico in quanto come scrive David Collingridge (The University of Aston, Technology Policy Unit, in his 1980 book The Social Control of Technology) da una parte, l’impatto delle nuove tecnologie non può essere facilmente previsto fino al momento in cui la tecnologia in questione è sviluppata estensivamente ed e’ impiegata su larga scala; d’altra parte, il controllo o cambiamento di una tecnologia diventa difficile non appena la tecnologia in questione e’ diventata pervasiva.

In conclusione  possiamo dire che lo sviluppo tecnologico ci impone a considerare concretamente dilemmi che un tempo erano perlopiù astratti: da tempi si discute infatti quali comportamenti devono tenere le “macchine per salvaguardare gli esseri umani (vedi Asimov le tre leggi della robotica) ma solo ora diventa un problema concreto se ad esempio di fronte ad una google car a guida automatica che percorre l’autostrada si trova un ragazzino in mezzo alla carreggiata e l’ auto a guida automatica ha solo 2 alternative: salvare il ragazzo  mandando l’auto contro un muro (uccidendo probabilmente il guidatore)  o lo travolgo il ragazzino, cosa sceglierà?

Le decisioni prese in sede di “programmazione/progettazione dei nuovi software non sono ne’ oggettive ne’ neutrali rispetto ai valori moralima sono anzi decisamente influenzate e tendenziose (biased) sulla base dei valori degli stakeholder che spesso sono gli investitori e che propongono l’introduzione delle tecnologie per incrementare i loro profitti.

Nella visione più estrema, espressa dal filosofo Ian Barbour (1980), le decisioni sull’eticità di una tecnologia sono “a one-sided apology for contemporary technology by people with a stake in its continuation”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *