menu-control
The Jerusalem Post

La educación: Clave para gestionar los riesgos de la IA en el futuro

 
 Señalando un cartel de robots con IA durante la Conferencia Mundial de Robots de 2022 en Beijing (photo credit: LINTAO ZHANG/GETTY IMAGES)
Señalando un cartel de robots con IA durante la Conferencia Mundial de Robots de 2022 en Beijing
(photo credit: LINTAO ZHANG/GETTY IMAGES)

Descubre por qué la educación debe ser el pilar fundamental para enfrentar los riesgos de la inteligencia artificial y cómo puede preparar a las futuras generaciones ante este desafío.

A medida que la Inteligencia Artificial Generativa (Gen-AI) evoluciona a un ritmo sin precedentes, el debate sobre cómo gestionar sus potenciales peligros se intensifica. A nivel global, la regulación frecuentemente se propone como una solución. En Estados Unidos, se han presentado múltiples proyectos de ley tanto a nivel estatal como federal.

De manera similar, en la Unión Europea, hemos visto un conjunto de leyes, incluyendo la Ley de IA y la Ley del Mercado Único Digital (DSM), que están poniendo la regulación en un lugar destacado en la discusión de formas no vistas desde la introducción de la regulación de privacidad del RGPD. Aunque la legislación es importante, hay tres razones clave por las que deberíamos priorizar la educación en abordar los riesgos de la IA.

En primer lugar, en la era de la IA, nuestras habilidades para pensar críticamente, adaptarnos y aprender de manera independiente podrían ser nuestras herramientas más importantes. Estas cualidades serán más esenciales que nunca a medida que el mundo evoluciona debido a la IA. A través de la educación, podemos inculcar una cultura de vigilancia y participación proactiva, alentando a las personas a mantenerse informadas sobre los últimos avances y posibles amenazas.

La educación, sin embargo, no termina con el pensamiento crítico. Es una mentalidad continua necesaria en la era de Gen-AI. Por ejemplo, cuando lanzamos LTX Studio, nuestro último producto basado en inteligencia artificial, comunicamos claramente a los usuarios que, aunque como empresa éramos responsables de varios aspectos del producto, como la privacidad, también esperábamos que ellos asumieran la responsabilidad de su uso. El abuso podría resultar en su eliminación de la plataforma.

Advertisement

 El logotipo de Google y las palabras de Inteligencia Artificial AI se ven en esta ilustración tomada el 4 de mayo de 2023. (credit: REUTERS/DADO RUVIC/ILLUSTRATION/FILE PHOTO)
El logotipo de Google y las palabras de Inteligencia Artificial AI se ven en esta ilustración tomada el 4 de mayo de 2023. (credit: REUTERS/DADO RUVIC/ILLUSTRATION/FILE PHOTO)

La segunda razón para priorizar la educación es que las herramientas basadas en IA están cambiando rápidamente la forma en que trabajamos. En pocas palabras, para prepararnos mejor a nosotros mismos o a nuestros hijos para el futuro laboral, necesitamos comenzar a integrar tales herramientas en nuestras rutinas diarias, desde la escuela hasta el hogar y el trabajo. Como estudiante de secundaria a principios de la década de 2000, recuerdo cómo algunos de mis profesores veían problemático utilizar datos de recursos en línea.

El progreso científico siempre se considera un mal atajo hacia el éxito

Cuando se lo mencioné a mi madre, ella recordó cómo las calculadoras eran desaprobadas por sus profesores de matemáticas. Le tomó tiempo al sistema educativo reconocer que las calculadoras, las computadoras y el internet no eran algo contra lo que luchar, sino más bien algo para abrazar. Más de una vez, los profesores llegaron a esta conclusión después de que sus alumnos adoptaran las nuevas herramientas más rápido de lo que ellos lo hacían.

Hoy en día, las calculadoras se dan por sentadas, y los estudiantes investigan en línea regularmente, sin embargo, la irrupción de la inteligencia artificial ha reavivado el debate sobre la adopción de nuevas herramientas y tecnologías. Como muestran estos ejemplos históricos, debatir está bien, pero en última instancia la tecnología se convertirá en parte de nuestras vidas, por lo que es mejor educar al respecto cuanto antes.

La tercera y última razón para priorizar la educación es porque las cuestiones en torno a la regulación son simplemente demasiado grandes. Como escribió recientemente el vicepresidente de la Autoridad de Regulación de Israel, el rápido ritmo de desarrollo de la inteligencia artificial plantea dudas sobre la capacidad de los reguladores para mantenerse al día. Por ejemplo, la Ley de IA de la UE incluye medidas destinadas a restringir los modelos de IA marginales que representan un riesgo sistemático potencial.

Estos modelos se definen por su potencia informática: el número de operaciones de punto flotante por segundo (FLOPS), con un umbral establecido en 10^25. Sin embargo, desde que se introdujo este umbral, varios modelos principales lo han superado. Uno de ellos es el modelo Llama de código abierto de Meta, y Meta dijo que no lanzará su modelo multimodal en la UE. Los datos de Epoch AI muestran que el modelo de Meta no está solo: también Google's Gemini, GPT-4 de OpenAI y otros han superado el umbral informático. Esto no significa que la regulación sea obsoleta, sino que en el entorno tecnológico de rápido movimiento en el que vivimos, simplemente no es suficiente.

Advertisement

Como se mencionó, la aparición de herramientas de inteligencia artificial aplicativa ya está cambiando la forma en que trabajamos, y seguirá moldeando nuestro mundo en los próximos años. Al igual que cualquier nueva tecnología, la IA generacional trae consigo riesgos y peligros, pero también una inmensa promesa para mejorar nuestra productividad, creatividad y salud. A medida que los reguladores desarrollan marcos para mitigar los riesgos, debemos centrarnos en educarnos a nosotros mismos y a nuestros hijos sobre estas herramientas, asegurándonos de aprovechar su potencial para mejorar nuestras vidas y la sociedad.

El escritor es jefe de personal en Lightricks.

×
Email:
×
Email: