¿Los periodistas pueden llegar a ser reemplazados por robots?
31 de Octubre de 2017

¿Los periodistas pueden llegar a ser reemplazados por robots?

Foto: Pixabay.com/ thehorriblejoke - Compartida bajo licencia Creative Commons.

La información del director de EFE sobre el ofrecimiento hecho a su agencia para utilizar un robot, en vez de un reportero, motivó una discusión en mi clase. ¿Hay una ética para robots? ¿Y los robots llegarán a ser reporteros?

Respuesta:

El robot que reemplaza a un periodista plantea preguntas parecidas a las que resultan de los periodistas ciudadanos. ¿Pueden el robot y el periodista ciudadano reemplazar a un periodista? ¿Producirán la misma clase de información?

En efecto, hay una información que uno y otro pueden producir: la elemental de los datos que captan la vista y el oído y las bases de datos. ¿Es esta la que están generando los periodistas de hoy? ¿Información solo para la vista y el oído? Si esta es la información que produce el periodista de hoy, puede ser sustituido tanto por los robots como por los periodistas ciudadanos que no han pasado por una universidad y que obedecen a un instinto primario por la noticia.

Pero hay un periodismo que no pueden producir ni los robots ni el periodista ciudadano provisto de algún aparato de tecnología digital. Es el periodismo que estimula, más que a los sentidos, a la inteligencia y conciencia del receptor. Es el periodismo que interpreta, que analiza y que estimula la participación ciudadana. Este periodismo no lo pueden hacer los robots ni los periodistas ciudadanos. Los primero por falta de capacidades, los segundos por falta de formación.

Si bien Isaac Asimov propuso una ética para robots con mandamientos como “un robot no lastimará a un humano” y Corea del Sur propone propone uno para que el hombre no abuse de los robots y para que estos tengan el mismo límite, los robots periodistas apenas si alcanzarán a procesar datos e imágenes pero no a obedecer la vocación a la excelencia que es la esencia de lo ético.

Documentación

La cuestión moral se convierte entonces en una cuestión técnica. El ingeniero a cargo tiene que incorporar a su agente autónomo de servicio algún tipo de sistema de control que permita garantizar que en su actuación no va a darse un uso ilegítimo de la violencia. Nótese que, a diferencia del problema general de la conducta moral para agentes realmente autónomos, aquí la cuestión es más restringida y manejable. No se trata de dotar al agente de una “conciencia moral”, sino de establecer regulaciones internas que aseguren que no se produzca una acción inaceptable dada la Convención de Ginebra y las reglas de combate que cada ejército establece para sus unidades. Por una parte, incorporar la Convención de Ginebra como una serie de prohibiciones explícitas (no torturar, no mutilar los cadáveres de los enemigos, no maltratar a los prisioneros, no producir un daño innecesario, etc.), y por otra, incorporar las recomendaciones de las reglas de combate, que especifican las circunstancias y limitaciones para iniciar o continuar una situación de combate, así como las indicaciones sobre la conducta apropiada en tales circunstancias, como una serie de aspectos que deben valorarse en la situación antes de proceder a activar la orden de ataque.

Un ejemplo de cómo afrontar este problema lo constituye la propuesta de Ronald Arkin (2007), elaborada como informe técnico encargado por el Pentágono. Arkin propone incorporar un nivel de control normativo, con una estructura híbrida de tipo reactivodeliberativo, a los sistemas móviles con capacidad letal ya desarrollados, como el modo de garantizar que no van a violar las prescripciones de la Convención de Ginebra, ni las reglas de combate del ejército americano. Su propuesta articula ese mecanismo de control normativo en tres niveles: un “gobernador ético”, un “adaptador ético” y un “consejero de responsabilidad”. El adaptador ético formaría parte de una arquitectura reactiva, de modo que dado cierto input –el reconocimiento de un cierto tipo de situación-, se activara la respuesta apropiada por la mediación de un esquema percepción-acción ya existente (incluyendo un esquema para el uso de fuerza letal si la situación es de cierto tipo). En segundo lugar, el gobernador ético constituiría un mecanismo de inferencia dentro de una arquitectura deliberativa, que tomaría esa propuesta de acción del nivel reactivo, y la sometería a validación normativa, teniendo en cuenta cuatro restricciones (que implementan las prescripciones de la Convención de Ginebra): discriminación, proporcionalidad, comprobación de la necesidad militar y minimización de la fuerza requerida. De lo que se trata es de verificar si esa acción puede ser “deducida” dentro del sistema, según el modelo de inferencia computacional como demostración de teoremas. Unicamente cuando los cuatro criterios fueran aprobados podría activarse la respuesta letal activada en el nivel reactivo. Finalmente, el nivel del consejero de responsabilidad constituiría un sistema de interface con los humanos, que facilitara a estos información sobre ese proceso de validación y permitiera transmitir instrucciones u órdenes de detener la acción, en caso necesario.

Antoni Gomila: Universidad Islas Baleares, Editorial Lengua de Trapo, Madrid.

Tipo Consulta: 

©Fundación Gabo 2024 - Todos los derechos reservados.