Los desafíos que impone el uso de la inteligencia artificial generativa

El aumento en el uso de las herramientas de IA nos plantea desafíos éticos, legales y cuestiones de privacidad en su implementación.

No hay dudas que la inteligencia artificial ha sido la temática más nombrada en el ámbito tecnológico dentro del último tiempo. La forma en cómo una máquina puede tener la capacidad de tomar decisiones y resolver problemas sin la necesidad de que una persona tuviese que intervenir cambió por completo el panorama de cara al futuro.

Si bien este concepto fue introducido en el siglo pasado, la última década fue un éxito para la IA gracias al poder computacional y a los recursos para su tratamiento y recopilación de datos, creando tecnologías económicas, prácticas y asequibles para cualquier tipo de usuario.

Pero si hay una clasificación de inteligencia artificial a la cual debemos prestarle debida atención es a la inteligencia artificial generativa.

Los modelos generativos están destinados a producir nuevos datos artificiales utilizando datos reales alimentados previamente por los usuarios, y de esta manera, crear información nueva. En definitiva, se basa en reconstruir o reproducir contenido que proviene de algún video, audio, texto o imagen, de una forma tan verosímil como el usuario lo avale.

A pesar de lo prometedor que puede resultar este concepto, la realidad es que existen varios riesgos vinculados a la adopción de esta nueva tecnología, especialmente debido a su incidencia en el ciberespacio, donde las cuestiones éticas y legales aún no están completamente desarrolladas.

Muchos gobiernos han optado por aplicar regulaciones en el uso de la IA. (Foto: Adobe Stock)

REGULACIÓN DE CONTENIDO

La moderación de contenido es un componente esencial para garantizar que las plataformas digitales mantengan un entorno seguro y respetuoso entre los usuarios. Con el crecimiento exponencial del contenido generado en línea, la tarea de moderarlo se ha vuelto compleja y crucial.

A pesar de los avances en materia de moderación automatizada, los sistemas de inteligencia artificial aún experimentan dificultades significativas para identificar y filtrar de manera precisa todo el contenido problemático debido a las complejidades del lenguaje y contexto, lo que nos hace pensar en todo el camino que aún falta recorrer para poder determinar una convivencia plena con la IA.

Como resultado, existe el riesgo de que el contenido ofensivo o perjudicial se pueda difundir en las plataformas digitales sin limitaciones, lo que atenta con los estándares éticos y morales.

Además, los escenarios de las redes sociales representan uno de los puntos más visibles de las herramientas de inteligencia artificial. Este espacio muchas veces nos deja un vacío legal que les brinda a los creadores de las respectivas IA un salvavidas para protegerse de demandas de derechos de autor.

CUESTIONES ALREDEDOR DE LOS DERECHOS DE AUTOR

La generación automática de contenido mediante inteligencia artificial puede presentar riesgos significativos relacionados con la propiedad intelectual, ya que estos sistemas tienen la capacidad de reproducir o derivar obras protegidas por derechos de autor sin la debida autorización.

Los algoritmos de IA pueden también generar contenido sin el consentimiento del autor a la hora de utilizar su voz o rostro con fines comerciales, lo que evidencia la necesidad de implementar recursos legales que protejan tanto a los autores intelectuales como a los creadores de contenido.

También, la dificultad para atribuir autoría y la falta de claridad sobre la responsabilidad legal en el material protegido complican aún más la situación, lo cual no pasa únicamente por el vacío legal que aún existe en el uso de la IA.

Uno de los principales usos de la IA generativa es la de generar texto realmente seductor para el usuario

DESINFORMACIÓN Y FAKE NEWS

Si en algo ha evolucionado la inteligencia artificial es en generar texto de manera coherente y convincente, permitiendo crear noticias de dudosa veracidad, fomentando la desinformación, tanto en artículos como en material audiovisual.

Lo más complejo de este apartado es la cuestión de la difusión. No solamente por la capacidad que tiene el ser humano de compartir la información sin antes realizar una pequeña revisión que verifique la fuente de la noticia, sino porque muchos sistemas automatizados pueden amplificar la difusión de información falsa, tanto en redes sociales como en otras plataformas digitales.

Estos sistemas pueden crear también una apariencia de popularidad o consenso en torno a un contenido engañoso, aumentando su visibilidad y potencial de influencia. Todo esto en conjunto puede perjudicar enormemente la reputación de alguna persona, gobierno, país, empresas, comunidad, entre otros.

Regular la propagación de la desinformación es complejo, pero es un tema que se ha puesto sobre la mesa especialmente con la introducción de la inteligencia artificial a este plano.

PRIVACIDAD Y SEGURIDAD

Los modelos de IA generativa suelen requerir grandes volúmenes de datos para su entrenamiento, lo que puede incluir información personal sensible proveniente de los usuarios, donde empresas como Meta, Google o X están bajo la lupa por aplicar estas políticas que están al borde de lo considerado éticamente correcto.

Si estos datos no se manejan adecuadamente, pueden ocurrir violaciones de la privacidad o exposición no autorizada de la información, representando un riesgo significativo para la seguridad de los datos a nivel personal.

Muchas empresas fueron cuestionadas por el mal manejo de los datos recopilados para alimentar sus modelos de IA. (Imagen Ilustrativa Ciber Mundial)

Una vez que se recopilan los datos, estos pueden permanecer almacenados por largos períodos de tiempo, a menudo sin una clara política de retención o eliminación. Un ciberataque que deje vulnerables a esta información puede ser absolutamente exacerbante para los usuarios típicos, que ven como sus datos fueron maltratados por una falta de cuidado óptimo.

La falta de transparencia en este ámbito ha sido un polémico tópico en el último tiempo. Por ende, muchos gobiernos, tanto locales como a mayor escala, han implementando regulaciones para ayudar a proteger la privacidad y seguridad de los usuarios, garantizando que las organizaciones manejen los datos de manera ética y segura.

En definitiva, la prevalencia de estos riesgos en el ámbito de la inteligencia artificial impondrá un barrera que aún debe ser derribada para poder garantizar un uso ético y responsable de la IA. La implementación de medidas de control y regulación adecuadas para mitigar los posibles impactos negativos resulta necesaria, representando uno de los desafíos del futuro cercano.