Atajo de Navegación:

Instituto Federal de Telecomunicaciones


Entrevista a Javier Juárez Mojica, Comisionado del IFT, en La Red (matutino) con Guadalupe Juárez Hernández sobre Foro Ética de los sistemas y dispositivos inteligentes

Guadalupe Juárez Hernández (GJH), conductora: El Instituto Federal de Telecomunicaciones realizó el I Foro de Ética de los Sistemas y Dispositivos Inteligentes, para reflexionar y debatir sobre diversos temas relevantes en torno a la inteligencia artificial. 

Vamos a platicar con Javier Juárez, él es coordinador general del Foro Ética de los Sistemas y Dispositivos Inteligentes. Javier, ¿qué tal comisionado?, muy buenos días. 

Javier Juárez (JJ), comisionado del Instituto Federal de Telecomunicaciones: Muy buenos días, Lupita, gracias por el espacio. 

GJH: Al contrario, gracias por platicarnos de esto que es tan importante. A ver, platíquenos primero cómo se llevó a cabo este foro, quiénes participaron y cuáles fueron los temas más relevantes. 

JJ: Sí, mira, Lupita, en primer lugar realizamos este foro porque la inteligencia artificial ya está aquí, lo vemos desde los vehículos que se manejan solos, la Sofía robot, no sé si has escuchado que le dieron ya hasta ciudadanía en Arabia Saudita, y también en ciertas aplicaciones que aunque tal vez no las vemos como usuarios, están ahí, filtros de correo electrónico que no queremos, lo que se conoce como spam; identificación de nuestros patrones de consumo en las tarjetas de crédito para ver si eventualmente alguna transacción se pudiera considerar fraudulenta. 

Todo ese tipo de cosas, las recomendaciones que te hace Netflix para ver alguna película, son sistemas que van aprendiendo, detectan patrones y utilizan lo que se conoce como inteligencia artificial, entonces eso ya está en nuestro día a día y consideramos en el Instituto que era necesario hacer un foro para convocar expertos y reflexionar. 

Tuvimos tres mesas, Lupita. La primera es de la información -el big data-, porque sin todos esos volúmenes de información, las máquinas, la inteligencia artificial, no podría aprender, digamos que sí aprenden pero a raíz de la información que le demos. La segunda es hacernos preguntas sobre legalmente qué es un ente, no necesariamente tiene que ser un robot, un algoritmo, un software, que tiene inteligencia propia y puede tener, tomar decisiones autónomas. Y la última es precisamente bajo qué esquema de valores, bajo qué principios, podría tomar esas decisiones. Esas fueron las tres mesas que tuvimos. 

Tuvimos expertos, por ejemplo está Carmen Rodríguez de la U de G; Demetrio Fabián García del Instituto de Investigaciones Matemáticas de la UNAM; Clara López también de la UNAM; Francisco Javier Mendieta de la Agencia Espacial, una lista de expertos, no terminaría de decírtelos todos, Lupita, pero sí... 

GJH: Pero estuvo muy, muy nutrido. 

JJ: Estuvo muy nutrido tanto por los expertos que nos acompañaron en las mesas, como por la participación en el auditorio, ahí tuvimos aproximadamente 150 asistentes, y en streaming las estadísticas que tenemos es que hubo aproximadamente mil cien conexiones que estuvieron viéndolo en línea. 

GJH: Oye, Javier, cuando hablamos de inteligencia artificial siempre como que nos remitimos a estas películas de ciencia ficción y de lo que va a dominar en el futuro, de los robots que van a dominar al mundo, pero platícanos, para el 2020 habrá alrededor de dos millones de robots que, como tú decías, ya la verdad es que convivimos con esto todos los seres humanos, robots industriales, la tecnología del internet de las cosas, pero qué tiene que ver la ética de los sistemas y los dispositivos inteligentes. 

JJ: Al final de cuentas, Lupita, la inteligencia artificial va a ser un reflejo de lo que nosotros le programemos, nosotros los humanos le estamos enseñando e introduciendo los programas para que ellos aprendan, entonces, y la reflexión viene por este lado, que es un ejemplo que se utiliza muy frecuentemente para ilustrar qué quiere decir la ética en estos sistemas de inteligencia artificial, imagínate, Lupita, que hay un vehículo que tiene que tomar en fracción de segundos una decisión, o atropella a peatones o da un viro que puede poner en riesgo la integridad de la persona que va adentro de ese vehículo autónomo, ¿cuál debería de ser la decisión que tome ese vehículo? Se realizó una encuesta, estaba viendo en algún video, y al parecer la tendencia es que minimice el daño y mejor que dé un viro para que, aunque se exponga el conductor, porque a la mejor los peatones que iban ahí enfrente, a los que podría atropellar, son cinco, ocho, los que sean, pero son más, entonces, que minimice el daño aunque ponga en riesgo al conductor. 

Pero cuando les hacen una siguiente pregunta, Lupita, dice: "¿Y usted compraría un vehículo que no pone por delante su vida, y más bien minimiza el daño aunque usted esté en riesgo?" Y lo que decía la gente: "ah, bueno, si el vehículo está programado así mejor no lo compro". 

GJH: Ahí ya le piensas, ¿no? 

JJ: Exactamente. Pero entonces cuáles deberían de ser los principios para que se realice esa programación, ¿debería de haber regulación?, y no es que tengamos ahorita las respuestas, Lupita, pero creo que sí es necesario... 

GJH: Pero tenemos que irlo pensando, ¿no? 

JJ: Tenemos que irlo pensando. En el caso de Alemania ya de hecho emitieron un código de ética para los vehículos autónomos, donde básicamente lo que dice es: siempre buscar que se minimice el daño, que se proteja la vida, perdón, y que para esa protección de la vida que no se tomen en cuenta aspectos como raza, edad, religión, etcétera, de las personas que pudieran estar involucradas. Ese fue uno de los principios básicos que consideraron ahí. 

GJH: Pues sí, ¿no?, porque si no, si le pones algo que desvíe esto a la mejor estamos siendo, o estamos haciendo armas en contra de algo. 

JJ: Exactamente. 

GJH: Qué interesante. 

JJ: Y el chiste es empezar a reflexionar, Lupita. Te digo, a la mejor no tenemos muchas respuestas, pero sí por lo menos ir generando todas las preguntas. 

GJH: Muy bien. Pues qué interesante, Javier, muchas gracias por platicar con nosotros esta mañana. Y las personas que nos han escuchado y que quisieran saber más, que quisieran conocer más, ¿dónde se puede realizar las conclusiones o las participaciones? 

JJ: Claro que sí, Lupita, de hecho en la página de Facebook y YouTube del instituto ya está todo el foro completo, están todas las participaciones, y estamos preparando las memorias técnicas del evento con unas conclusiones ya más procesadas para ponerlas a disposición, y eventualmente a raíz de eso ir generando agenda de manera coordinada con la academia, con los legisladores, con otras instancias del gobierno, etcétera. 

GJH: Muy bien. Javier, muchas gracias, que tengas buen día. 

JJ: Buen día, Lupita, gracias a ti. 

GJH: Hasta luego. El comisionado Javier Juárez, coordinador general del Foro Ética de los Sistemas y Dispositivos Inteligentes.

 Fecha de la Entrevista: 24 January 2018

Documentos para descargar

Escuchar entrevista

Temas relacionados

Compartir

2024 Instituto Federal de Telecomunicaciones - Algunos Derechos Reservados
Chatbot
Asistente virtual