Sandra Delgado
La UNAM, por medio del Programa Universitario de Investigación en Salud, llevó a cabo el Seminario Permanente de Bioética para hablar de la inteligencia artificial. Jorge Linares Salgado, académico de la Facultad de Filosofía y Letras, aseveró que en el futuro habrá una tensión entre la inteligencia humana y la inteligencia artificial (IA), ya que artefactos o sistemas diseñados por ingenieros podrían alcanzar autonomía en un momento dado y la cuestión es si la ética los considerará como personas artificiales, así como si se les debe temer sobre todo por su capacidad cognitiva.
“¿Qué pasará con la inteligencia artificial si llega a ser cierto lo que algunos autores piensan acerca de que mediante un conjunto de máquinas surgirá, como por arte de magia, una especie de súper consciencia y aparezca un nuevo tipo de inteligencia más efectiva y precisa que la humana?”, cuestionó.
El objetivo central de la IA, afirmó, es ayudar al ser humano a tomar decisiones (buenas o malas), ya que este las realiza con mucha información y con sesgos a comparación de otras especies, por eso suelen tener una connotación emocional importante. Este apoyo de las máquinas, dijo, hará que las personas dependan aún más de ellas y por tanto, al no ejercitar la memoria serán menos hábiles.
“Tenemos que revisar qué tipo de decisiones podrían realizar robots, quizá las técnicas sí pero las médicas, jurídicas o políticas no, porque si en algo consiste la inteligencia humana es en la liberación política, son determinaciones contextualizadas en situación de incertidumbre, y a veces inéditas y, para ello, tendríamos que mostrarles a las máquinas cómo decidir con base en mucha información previa”, mencionó.
De acuerdo con Carlos Gershenson García, del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas, hay ciertas implicaciones de la IA que generan más confianza en las personas, como aplicaciones que recomiendan qué libros leer, con quién tener una cita romántica, o qué película ver; en ese tipo de casos, se les delega a los algoritmos una toma de decisión.
“Dependemos de la tecnología y ésta de nosotros, la finalidad es interactuar con ella y más que competir complementarnos. Toda IA que hemos desarrollado nos permite hacer más de lo que podían hacer quienes nos antecedieron; nuestras capacidades cognitivas hoy han aumentado de manera exponencial, lo que nos permite tomar el control de nuestro entorno, asegurar el futuro y hasta cometer errores que ahora podrían afectar al planeta entero”, destacó.
Si estas tecnologías se usan para beneficiar a la mayoría de la población, aclaró, entonces se resolverían problemas globales que podrían disminuir en los próximos años la desigualdad y otras situaciones sociales, como la emancipación o la esclavitud.
Al respecto, Linares Salgado comentó que Aristóteles hace casi 24 siglos consideró que no era necesario el uso de máquinas automáticas porque siempre habrá gente que se pueda esclavizar. Mencionó que la palabra robot en checo es esclavo, lo que significa que los artefactos tecnológicos se generaron con esta idea de obedecer al ser humano.
“De esta manera, las máquinas pueden convertirse en nuevos sujetos intencionales ya programados por sujetos igualmente inteligentes por naturaleza, y por esto es que pensamos que la IA no se exenta de errores, aunque pueden corregirse para ayudar a mejorar las tecnologías”, dijo.