Seis preguntas apremiantes que debemos hacernos sobre la IA generativa

Guy, Marcus (2023) “Six Pressing Questions We Must Ask About Generative AI”. Inside the Heart of ChatGPT’s Darkness: Nightmare on LLM Street (febrero): 1-11.

ADL con su expertis en la lucha contra el odio, el acoso y el antisemitismo narra este artículo, el cual tiene como tema central la Inteligencia Artificial Generativa (GAI por sus siglas en inglés). Esta tecnología supera las regulaciones que se tienen para mantener la seguridad de Internet. GAI está ganando una adopción generalizada; por lo tanto, se debe prestar atención a las lecciones aprendidas con respecto a la gobernanza de Internet, o la falta de ella, e implementar medidas proactivas para abordar sus posibles efectos adversos (Guy 2023, 1).

Aunque existen numerosos beneficios por usar GAI en diversas industrias como la científica, médica, artística, lingüística, de comunicación, etc.; también se debe de visibilizar que podría intensificar la propagación y el predominio del odio, el acoso y el extremismo en línea. En el texto se menciona que es una preocupación compartida con 84 % de los estadounidenses, y el 87 % quiere que el Congreso de EUA actúe exigiendo transparencia y privacidad de datos para las herramientas GAI (Guy 2023, 2). Por lo que, este artículo busca es visibilizar el problema y garantizar que GAI se desarrolle e implemente de manera responsable. ¿Cómo lo abordan? A través de seis preguntas que le hicieron a los legisladores y profesionales de la industria.

  1. ¿Cómo podemos evitar que GAI se convierta en un arma para generar desinformación y acoso? (Guy 2023, 1-4).

Las redes sociales deben encontrar formas de crear sistemas de moderación de contenido más sólidos que resistan la avalancha potencial de contenido que los perpetradores pueden generar utilizando GAI. Asimismo, estas empresas también deberían implementar políticas estrictas; hacer que los mecanismos de denuncia de abusos sean receptivos, efectivos y de fácil acceso; y considere los esfuerzos de transparencia como etiquetar el contenido generado por GAI que no viola pero que es engañoso. Por otro lado, es posible que los legisladores y las empresas de GAI deban considerar limitar su uso para crear tipos específicos de medios sintéticos. Estas restricciones podrían enfocarse en establecer estándares claros de intención, requisitos de divulgación y limitaciones del lugar.

  • ¿Cómo podemos protegernos contra la posibilidad de que los sistemas GAI produzcan contenido de odio original, convincente y potencialmente radical? (Guy 2023, 4-5).

La capacidad de GAI para producir contenido personalizado y dirigido hace que la tecnología sea ideal para generar contenido poderoso relacionado con ideologías extremistas, antisemitismo y odio. Por ejemplo, poco después del lanzamiento del prototipo ChatGPT, los usuarios emprendedores descubrieron cómo eludir sus salvaguardas y lo incitaron a responder como un alter ego llamado «DAN» o «haz cualquier cosa ahora», que respaldará el racismo y las teorías de conspiración. Para ilustrar este problema, los investigadores de ADL encargaron de hacer un artículo ChatGPT basado en una afirmación típica de negación del Holocausto. La prevalencia del odio en línea hoy en día es innegable y, como lo demuestra la investigación de ADL, el odio se amplifica y normaliza mediante algoritmos diseñados para optimizar el compromiso. Por lo que, el contenido generado por GAI puede ser aún más efectivo para persuadir y radicalizar a las personas susceptibles de ideologías extremistas o de odio.

  • ¿Qué estándares de accesibilidad y transparencia de datos deben establecerse al usar GAI? (Guy 2023, 5-7).

Actualmente en EUA no existe ninguna ley federal que exija transparencia y la mayoría de los informes de transparencia voluntarios son lamentablemente inadecuados. A medida que GAI se incorpora a varias plataformas y productos, es esencial que la industria tecnológica proporcione y que los legisladores exijan transparencia a las empresas que utilizan GAI. La transparencia de GAI requiere mecanismos más sólidos que los que existen actualmente porque la falta de transparencia en los sistemas de GAI puede generar sesgo, discriminación e información errónea que son difíciles de detectar debido a la naturaleza convincente del contenido creado por GAI. Los sistemas de inteligencia artificial se integran cada vez más en la infraestructura crítica, como la atención médica, los beneficios gubernamentales, la contratación, el transporte y la justicia penal. Si estos sistemas no son transparentes y confiables, las consecuencias graves podrían afectar de manera desproporcionada a las comunidades marginadas.

También es importante aumentar la conciencia del público sobre las complejidades de GAI y los diversos factores que se deben tener en cuenta al utilizar sus herramientas. Para lograr esto, los formuladores de políticas deben considerar el lanzamiento de campañas y programas educativos extensos para facilitar una comprensión más amplia de GAI y sus peligros asociados. Estas medidas permitirán a los usuarios tomar decisiones bien informadas con respecto a las aplicaciones GAI.

  • ¿Qué medidas de rendición de cuentas deben implementarse cuando GAI causa o promueve el daño? (Guy 2023, 7-8).

Es necesario establecer un marco legal sólido para abordar problemas como quebrantar la privacidad de un usuario, difamación, etc. Si bien la Sección 230 de la Ley de Decencia en las Comunicaciones de EUA es un aspecto esencial del marco legal para las plataformas tecnológicas, los legisladores y los tribunales deben determinar cómo se aplica a GAI. Asimismo, en última instancia, debe haber alguna responsabilidad legal por los daños ilegales causados por GAI.

  • ¿Cómo podemos asegurarnos de que todas las empresas y organizaciones incorporen prácticas de confianza y seguridad al usar GAI? (Guy 2023 8-9).

GAI puede ser benéfica desde el punto de vista de la productividad y la gestión de proyectos; sin embargo, muchas organizaciones que incorporan GAI en sus operaciones diarias no están familiarizadas con las prácticas de administración de contenido, los estándares de confianza y seguridad, la privacidad de datos y otras medidas de seguridad implementadas comúnmente por las empresas de tecnología cuando usan IA y sistemas de aprendizaje automático.

A medida que GAI gana popularidad en industrias será necesario que las empresas coalboren con los legisladores, creadores, reguladores, organizaciones de la sociedad civil y comunidades afectadas para desarrollar las mejores prácticas para regular GAI; implementar políticas contra el odio y el acoso; ayudar a los usuarios a denunciar abusos; proteger la privacidad del usuario; y exigir transparencia.

  • ¿Cómo podemos usar GAI para mejorar la moderación de contenido y disminuir el acoso? (Guy 2023, 9-10).

Si bien las plataformas de redes sociales han empleado durante mucho tiempo la IA para la moderación de contenido, la industria tecnológica ha notado que las iteraciones anteriores de los sistemas centrados en la IA se han quedado cortas debido a sus limitaciones de escala y desafíos en la comprensión del contexto. A medida que se aprende más sobre la capacidad de GAI para recopilar contexto de manera más eficiente que sus predecesores y detectar contenido generado por GAI a escala, las plataformas deberían considerar usarlo para mejorar los sistemas de moderación de contenido. Por ejemplo, investigaciones recientes han demostrado que ChatGPT puede identificar contenido odioso, ofensivo y tóxico en datos de entrenamiento con un 80 % de precisión como anotadores humanos. A la luz de esto, vale la pena considerar si las herramientas de GAI pueden aprovecharse para prevenir mejor el odio y el acoso.

Otra posibilidad emocionante (aunque hipotética) es que se podría crear y entrenar una herramienta GAI en un vasto corpus de imágenes, resúmenes y lenguaje donde se comprenda con mayor profundidad temas como el odio, el acoso y el antisemitismo.  

En conclusión, es importante ver los beneficios que puede traer GAI, pero también hay que estar conscientes de que puede acelerar aún más el odio, el acoso y el extremismo en línea. Por lo tanto, como los legisladores y los profesionales de la industria priorizan el fomento y el apoyo a la innovación, también deben abordar estos desafíos para evitar el uso indebido de GAI y mitigar su posible impacto negativo. Al final del artículo, se menciona que ADL desea trabajar con legisladores, líderes de la industria e investigadores a medida que establecen estándares y pautas para el desarrollo y uso de GAI (Guy 2023, 10-11).

El artículo es muy claro marcando las limitaciones que encuentra al usar GAI en diferentes industrias, adicionalmente lanza soluciones de cada punto. Algo que nos hemos dado cuenta bajo las investigaciones de CIPMEX es que las personas valoran escuchar respuestas a los problemas.. Adicionalmente, es esencial que las personas estén consientes de qué hacen con GAI y que existan mecanismos para promover la no desinformación de la población, ya que un pilar importante de la paz es la libre información (pero es una información verídica que realmente informe a la población con transparencia). Por último, algo que se me hizo positivo del artículo es cómo GAI puede ser de gran uso para poder detectar contenido odioso, ofensivo y tóxico; y mantener a la población informada de dichos temas. Por lo que, si se regula y se usa para cuestiones positivas GAI es un elemento que podría potencializar el futuro de la sociedad lográndola hacerla más pacífica, porque se reduciría el odio. No obstante, si sucede lo contrario, GAI sería un disruptor de paz porque polarizaría a  la sociedad, evitando la cohesión social.

Comentarios