
Inteligencia Artificial (IA) y Ética Algorítmica (EA)
Situémonos en un futuro inmediato:
- Tenemos a los matemáticos creando algoritmos e innovando en Inteligencia Artificial (IA)
- Tenemos a los expertos en robótica implementando estos algoritmos en los nuevos robots
- Tenemos un robot (un coche, un avión, un asistente…) “dotado” de IA que aprende a medida que funciona (machine learning-ML) y va tomando decisiones cada vez más complejas
- No tenemos a nadie controlando todo lo anterior…
No deja de ser curioso que algo tan importante como los tres primeros puntos anteriores no tenga de manera ya preestablecida a un equipo coordinado de expertos supervisando que estos robots dotados de IA se construyan sobre una base ética sólida. Porque, si queremos en un futuro no muy lejano que los robots aprendan, tomen decisiones e innoven por nosotros, la ética va a constituir los cimientos sobre los que deberían apoyarse todo el novedoso tema de la IA.
La cuestión que me planteo es: ¿quién va a programar las decisiones que tomará el nuevo robot con IA que sale al mercado? Sé que el robot estará programado para cumplir con unas normas legales o jurídicas y con la idea de no perjudicar a ningún humano, pero ¿quién será el encargado de programar cómo dirimir entre las distintas situaciones que se le puedan plantear para tomar unas decisiones acordes al menos con una ética de mínimos? ¿quién decidirá qué ética algorítmica es la correcta, la deseada o la menos perjudicial?
Sobre esta base ética en la que cimentar los robots con IA podemos distinguir dos momentos:
- uno de planificación inicial en el que se dirimiría para qué queremos los robots, en qué campo, con qué funciones y las repercusiones sociales y particulares que produciría la posible sustitución de las personas por robots en los ámbito escogidos: coche autónomo, piloto automático, profesorado, acompañamiento o vigilancia de mayores y niños, dron salvamento, robot cirujano Da Vinci…
- otro momento posterior, tras haber determinado los campos en los que actuarían, en el que se especifiquen con claridad qué criterios de ética mínima tendrían que cumplir estos robots y, por tanto, cuáles serían los límites a los que los algoritmos matemáticos a desarrollar tendrían que ajustarse para no salirse de estos márgenes establecidos previamente
Tendremos que ir “adelantándonos” (aunque yo creo que ya vamos con retraso) y empezar a establecer las normas legales y jurídicas que estos robots deberán cumplir. Y sobretodo habrá que ir creando ya comités que diriman las futuras aplicaciones de la robótica y en los que hayan expertos en “ética robótica mínima” o ética algorítmica para establecer claramente los límites éticos de las decisiones que podrán o no tomar los robots.
Los primeros robots ya están en marcha. De nosotros humanos depende establecer las funciones y los límites de los mismos.
Estaría bien que empezáramos a pensar y hablar sobre ello y creáramos una masa social crítica que hiciera que este tema se incluyera ya en los programas electorales explicando para qué campos van a subvencionarse y si se va a destinar dinero para crear comités de ética robótica mínima y votarlos.
Piénsalo, si cuando seas mayor te tiene que cuidar un robot, estoy convencida de que te gustaría decidir de antemano qué funciones quieres que tenga para poder escoger el que más se ajuste a tus preferencias. Un robot personal va a costar mucho dinero, así que estaría bien poder escogerlo, como en una página Tinder pero de robots, y elegir uno con un buen bot-chatbot para poder charlar o que simplemente nos hiciera compañía tipo perro lobot… quizás lo encuentres algo futurista pero mejor que vayas pensando sobre el tema al menos que te guste HAL 9000.
