Por Paloma Castillo y Paula Cifuentes
La influencia de la inteligencia artificial (IA) en la vida cotidiana de los adolescentes ha suscitado un debate crucial sobre sus beneficios y riesgos, especialmente a raíz de casos mediáticos de estudiantes que han generado imágenes falsas de compañeras utilizando esta tecnología.
Según el informe de la empresa de estudios de mercado Ipsos llamado «Miradas Globales sobre la I.A y Desinformación», en Chile, el 81% de las personas cree que la inteligencia artificial puede ser utilizada para generar noticias e imágenes muy realistas. En tanto, el 43% confía en que el ciudadano promedio del país sabe distinguir las noticias reales de las falsas. Frente a este desafío, ¿cómo podemos maximizar los beneficios de la inteligencia artificial y mitigar sus posibles efectos negativos?
Según explica Melisa Suing, psicóloga especializada en clínica infanto-juvenil, con experiencia en establecimientos educacionales de la Región Metropolitana, es crucial entender que una herramienta no tiene una connotación negativa o positiva, todo depende del uso que se le dé. “La inteligencia artificial nunca va a reemplazar una interacción humana, pero sí puede entregar consejos e información que puede servir. Si como adolescente estás teniendo una crisis de angustia y sientes que no tienes con quién hablar, la IA puede sugerir que tomes una pausa, hagas ejercicios de meditación, algún ejercicio corporal o que busques ayuda. En lo académico, por ejemplo, te puede ayudar en un trabajo, a ordenar tu agenda, e incluso puedes ir interactuando para que evalúe tus conocimientos. Sin embargo, la línea es muy delgada, porque la idea es usarla como ayuda, no que te reemplace”, planteó la profesional.
¿Cuáles son los riesgos?
Gabriela Arriagada, investigadora joven del Centro Nacional de Inteligencia Artificial (CENIA), explica que hoy existen capacidades de creación artificial muy potentes, principalmente tras la popularización de Chat GPT, además de la generación de imágenes, vídeos, filtros de audio y otras tecnologías que en el lado negativo podrían ser utilizadas para crear contenido tendencioso o manipulador.
Además de esto, la profesora asistente de Ética de Datos e Inteligencia Artificial en el Instituto de Éticas Aplicadas y el Instituto de Ingeniería y Matemática Computacional de la Universidad Católica, advierte que otro de los riesgos tiene que ver con un bajo control humano en la supervisión de sistemas implementados por terceras partes en empresas o instituciones, además de riesgos transversales en privacidad, ciberseguridad, sesgos y transparencia.
“Estamos aplicando la inteligencia artificial descriteriadamente en diferentes ámbitos de la sociedad. Por ejemplo, para ver alertas escolares, diagnósticos médicos, análisis de temblores, catástrofes y hacer predicciones. El gran tema con esto es que muchas veces por el afán, quizás un poco ciego de querer implementar inteligencia artificial, no hay una buena formulación del problema. Está esta idea de venderlo como casi un mantra de marketing y no se cuestiona realmente si la necesitamos”, explicó.
Puntualmente en el caso de los adolescentes, Melisa Suing destaca que el uso excesivo de dispositivos electrónicos como el celular se ha vuelto un tema de preocupación, ya que este segmento de la población aún está aprendiendo habilidades de autocontrol y autorregulación.
“Hay un riesgo de adicción a la tecnología importante, por ejemplo, al sentir que no puedes trabajar sin Chat GPT, reemplazando tu propia redacción de ideas y dudando de tus conocimientos. También cuando le crees todo sin cuestionar. Otro tema importante es el ciberbullying que ocurre tanto fuera como dentro del colegio, es muy complejo y puede afectar la autoestima de la persona. Puede generar rasgos de ansiedad en las situaciones sociales o de grupos, ataques de pánico y aislamiento. Entonces a largo plazo tiene efectos negativos y probablemente va a requerir de acompañamiento terapéutico”, expresó la psicóloga.
¿Cómo abordarlo?
“Siempre que aparece algo nuevo, se tiene que educar y eso va a recaer principalmente en la familia y los colegios. Es importante que las familias aborden estas temáticas desde lo individual, la conversación y el conocimiento. Si tienen hijos adolescentes o pequeños, deben entender esto para abordarlo correctamente. Los colegios también tienen la misión de enseñarles y darles herramientas para que tomen mejores decisiones”, explicó Melisa Suing.
Gabriela Arriagada, por su parte, señaló frente a este tema que los daños y las interacciones digitales son muy difíciles de borrar, por lo que “es muy relevante que todo el desarrollo psicoemocional, ético y también de comportamiento ciudadano lo abordemos transversalmente en contextos escolares. Es clave tener programas de desarrollo que estén verificados desde el ministerio y talleres” sostuvo la profesional de CENIA, quien agregó que es fundamental incorporar la perspectiva de género para desarrollar herramientas más equitativas, además de integrar las experiencias y necesidades de todas las personas en la sociedad.
Urge una ley con perspectiva de género
Miguel Poblete, Magister en Derecho Procesal y Doctor en Derecho, plantea que es indispensable considerar la igualdad de género en el diseño del equipo detrás de la IA. “Además, se debe establecer un sistema de auditoría del algoritmo y las bases de datos, verificando el origen de los datos para evitar sesgos discriminatorios”, comentó.
Para tener mayores posibilidades de éxito, Poblete resalta que es conveniente contar con medidas de transparencia de los procesos, así como pruebas iniciales de implementación (una especie de sandbox regulatorio). Dichos principios se inspiran en el reglamento europeo que aborda la inteligencia artificial, que comenzará su vigencia el 30 de junio de 2024. Estos principios inspiran el reglamento europeo de la inteligencia artificial que comienza su vigencia el 30 de junio de 2024. Puede revisar el documento aquí.
En cuanto a la privacidad y seguridad de los datos de las mujeres, el profesional señala la necesidad de sanciones severas por el uso indebido de IA, especialmente en áreas sensibles como la salud reproductiva o la violencia de género: «Debemos considerar sanciones por la utilización de IA generativa para crear o modificar imágenes, videos o audios, agravadas si la información se obtuvo en contextos de relaciones sentimentales, acoso o con vulneración de derechos fundamentales.» Para ello, el abogado propone la creación de un organismo fiscalizador, similar a la Fiscalía Nacional Económica o la Agencia Nacional de Ciberseguridad, para dictar normas, sancionar y garantizar el cumplimiento de la ley.
Avances
Justamente en mayo de este año, la Ministra de Ciencia, Tecnología, Conocimiento e Innovación, Aisén Etcheverry, presentó la nueva Política de Inteligencia Artificial. Esta iniciativa abarca más de 100 acciones a ser implementadas para el año 2026. Entre las medidas destacadas se incluyen la actualización de las bases curriculares desde la etapa preescolar para integrar la IA, cursos especializados en aplicaciones específicas de IA para pymes, el desarrollo de nuevos talentos, mejoras en la infraestructura, promoción de la inclusión y la no discriminación en la implementación de sistemas de IA, así como el estudio del impacto de la IA y la adopción de medidas preventivas contra la desinformación, la violencia digital y sus efectos en la salud mental.
“Vamos en la dirección correcta. Este no es un camino fácil, la verdad es que ya tenemos una lucha histórica respecto a cómo poder integrar nuevas narrativas a estructuras científicas. La inteligencia artificial es una disciplina necesariamente interdisciplinaria, eso también nos genera otro desafío, que es generar puentes de comunicación, hacer una traducción, por así decirlo, de lenguajes comunes, de narrativas que podamos integrar a las metodologías de trabajo”, concluyó Gabriela Arriagada.