Ineco, ingeniería y consultoría de referencia en movilidad y transformación digital, y la Universitat Politècnica de València (UPV), lanzan un Observatorio y Think Tank especializado en las implicaciones éticas de la inteligencia artificial (IA) y su relación con la sociedad en cuanto a cuestiones de diversidad.
Esta herramienta tiene como objetivo analizar, debatir y brindar orientación en el desarrollo y uso responsable de la IA para promover un enfoque humano y ético en su implementación.
Además, prestará especial atención a identificar patrones y desigualdades relativos a la movilidad y la diversidad, concienciar y sensibilizar sobre posibles barreras, así como incorporar reflexiones hacia una movilidad inclusiva.
El Observatorio se desarrolla bajo la premisa de que la IA no solo debe ser una herramienta eficiente, sino también una fuerza positiva que beneficie a toda la humanidad, reduciendo los riesgos que puedan derivarse de su uso. El Observatorio actuará como un centro de estudio y análisis, reuniendo a expertos en ética, tecnología, economía, derecho, sociología y otras disciplinas relevantes para explorar las complejas interacciones entre la IA y la sociedad.
Sesgo algorítmico, privacidad y protección de datos, responsabilidad corporativa, ética en la toma de decisiones autónomas, interacción humano-IA, desarrollo de IA y gobernanza y regulación, y ética en la investigación son los aspectos sobre los que se articulará el estudio del proyecto.
La constitución de este Observatorio y Think Tank se ha formalizado con la firma de un convenio de colaboración. El encuentro, que ha tenido lugar en el rectorado de la UPV, ha contado con la participación de Sergio Vázquez, presidente de Ineco; Pepe Capilla, rector de la UPV; y Nuria Lloret, catedrática de la UPV y directora del Observatorio.
El rector de la UPV, que ha presidido el acto, ha señalado durante el mismo que la IA “es algo que ha llegado y nos va a facilitar la vida. No debemos tenerle ningún temor, lo que tenemos que hacer es incorporarla. Pero sabemos que los modelos generativos tienen sus sesgos y que hay que solucionar esos problemas. En ese sentido, bienvenido sea un Observatorio como el que hoy presentamos, que va a velar por la calidad del uso de la IA evitando problemas de discriminación y favoreciendo la igualdad y la diversidad”.
Por otro lado, en palabras del presidente de Ineco, "este convenio no solo es muestra del valor que para Ineco tiene el conocimiento que aportan las universidades públicas españolas, sino también de nuestro compromiso con el desarrollo de una tecnología con alma".
Investigación de Diseño y Fabricación (IDF), ha indicado que, si bien el avance y la expansión de la IA han revolucionado la sociedad en múltiples aspectos, desde la automatización de tareas hasta la toma de decisiones en áreas cruciales como la medicina, la educación, las finanzas o la ciberseguridad, “este progreso tecnológico también plantea desafíos éticos y sociales que deben abordarse de manera exhaustiva. Por ello nace este Observatorio”, ha destacado.
Lloret, elegida para dirigirlo, es referencia internacional en el ámbito de la diversidad en los entornos académicos y empresariales, además de una reconocida experta en la mentorización de mujeres jóvenes hacia los estudios STEAM. No en vano, la catedrática de la UPV ha sido profesora invitada de la New York University y del Tecnológico de Monterrey, ha dirigido más de 50 proyectos de investigación a niveles nacional y europeo, y es la fundadora de la plataforma “Atenea: Women in Art and Stem” y miembro de la plataforma de Estudios de Genero de la Universidades Españolas.
El Observatorio en Inteligencia Artificial y Diversidad cuenta con la Asociación de Mujeres Empresarias y Profesionales (EVAP), Woman in AI y la Fundación Diversidad como entidades colaboradoras especializadas en diversidad. También participan en el proyecto la red de mujeres mINerva y la red de diversidad IRIS, ambas nacidas en Ineco.
Estas entidades testearán las herramientas de IA en una primera fase “sin conocimiento” y, posteriormente, realizarán una formación para desarrollar la segunda parte del testeo. Los datos recopilados serán analizados para realizar comparativas de uso “con y sin conocimiento en materia de inteligencia artificial”.
Noticias destacadas