Inteligencia artificial y el debate ético
El debate ético sobre la inteligencia artificial adquiere cada vez mas relevancia a partir de algunas previsiones que contemplan posibles afectaciones a la economía, el empleo y la sociedad en su totalidad. En la previa del XXI Congreso Internacional en Innovación Tecnológica Informática (CIITI 2023), el director del Laboratorio de Robótica Física e Inteligencia Artificial de la UAI, Mg. Néstor Balich, ofreció algunas reflexiones al respecto en una columna de opinión publicada en el diario La Capital de Rosario.
“La difusión de una foto generada por inteligencia artificial del Papa con un abrigo de una prestigiosa marca de ropa que no era de él, es un ejemplo que ya conocemos y se llama fake news. Lo hemos vivido en mensajes, en notas periodísticas, en videos y audios sacados de contexto. La diferencia es que ahora se hizo con una tecnología de inteligencia artificial que es de público uso”, explica Balich.
Sostiene que estos “humanos” creados en base a imágenes digitales y videos realizados en laboratorios, no es una tecnología nueva. En este sentido, Balich reveló: “El año pasado presentamos en el CIITI qué son los metahumanos o humanos digitales de Unreal (un sistema "motor" para desarrollar videojuegos). También planteamos el debate e incentivamos a profesionales, alumnos, e investigadores, a pensar sobre el valor y la responsabilidad de la creación y uso de la tecnología desde lo ético con un impacto positivo en la sociedad”
Asimismo, aseguró que la idea de que una vez que se soltó al genio de la botella este pueda retornar a ella es solo una ilusión. “Es cierto que hay mucha especulación y alarma en torno a ciertas tecnologías o eventos que se perciben como amenazas. Es importante que se comparte con el público sea precisa y esté respalda por evidencia científica sólida”, sentenció y recomendó generar acuerdos y crear equipos de trabajo que participen en investigaciones nacionales e internacionales para regular y fomentar el avance tecnológico.
Para leer la nota completa cliquear AQUÍ