Respuestas
Respuesta:
El debate sobre la inteligencia artificial y la robótica está adquiriendo cada vez mayor relevancia social una vez que se comienza a atisbar las posibles consecuencias para la economía, el empleo y la sociedad en su totalidad. Junto con este tipo de consideraciones, diversas instituciones –gobiernos, universidades, la industria– se están comenzando a plantear también los dilemas éticos que serán la base de la legislación futura.
Claves
El Parlamento Europeo, por un lado, y un grupo de experto reunidos en Asilomar (California), por otro, han desarrollado de manera paralela una serie de principios y valores éticos sobre la robótica y la inteligencia artificial (en adelante IA).
Esta preocupación por la ética se basa en la creciente conciencia de la necesidad de regular, en un futuro próximo, los avances en este campo.
Se diferencia entre la ética de la robótica –que es la ética de los investigadores, diseñadores y usuarios– y la ética de las máquinas: los robots no tienen valores ni consciencia más allá de lo que se les programa y consienta.
Algunos valores compartidos: respeto por la dignidad humana, libertad, seguridad, privacidad, búsqueda del bien común, inclusión, no uso militar…serán la base de las leyes y regulaciones futuras.
También se reconoce la incertidumbre: es imposible saber con certeza cuáles serán los avances de la IA en una o dos décadas. Por eso, habrá que repensar los dilemas éticos y las regulaciones a medio plazo.