sábado, julio 27, 2024

Meta identificará las imágenes generadas por IA en sus redes sociales

Meta, la empresa matriz de Facebook, Instagram y Threads, anunció que etiquetará a todas las imágenes generadas por inteligencia artificial (IA) que se publiquen en sus redes sociales.

Según explicó Nick Clegg, el vicepresidente de asuntos globales de Meta, en una entrada de blog, la compañía ya identifica las imágenes creadas con su propia herramienta, Meta IA, que lanzó en diciembre de 2023. Esta herramienta permite a los usuarios crear imágenes realistas de personas, paisajes, objetos y animales que no existen en la realidad, utilizando algoritmos de aprendizaje profundo.

“En los próximos meses, etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads, siempre y cuando podamos detectar los indicadores, conformes a las normas de la industria, que revelan que son generadas por IA”, anunció Clegg.

Agregó que buscan hacer lo mismo con contenidos creados con herramientas de otras empresas, como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock.

Meta etiquetará las imágenes generadas por IA

Nick Clegg aseguró que Meta está construyendo esta herramienta en estos momentos, y que en los próximos meses comenzará a aplicar etiquetas en todos los idiomas compatibles con cada aplicación.

El objetivo es que los usuarios puedan distinguir fácilmente entre las imágenes reales y las sintéticas, y que puedan acceder a más información sobre cómo se crearon estas últimas.

La medida de Meta responde al creciente auge de la IA generativa, una rama de la inteligencia artificial que utiliza redes neuronales para crear contenidos que imitan la realidad, como imágenes, vídeos, textos o audios. Estas tecnologías ofrecen grandes posibilidades para la creatividad, el entretenimiento, la educación y la investigación, pero también plantean importantes desafíos éticos y sociales.

Uno de los principales riesgos es el uso malicioso de la IA generativa para difundir desinformación, manipular la opinión pública o dañar la reputación de personas o instituciones.

Otro de los problemas es el impacto negativo de la IA generativa en la dignidad y los derechos humanos de las personas, especialmente de las mujeres. Según varios activistas y reguladores, el desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos ofensivos.

Ante esta situación, Meta afirmó que está comprometida con el desarrollo responsable y ético de la IA generativa, y que seguirá colaborando con otras empresas, organizaciones y gobiernos para establecer estándares y normas que garanticen el respeto a los valores democráticos y los derechos fundamentales.

 «Minimizar» los deepfakes

Por ejemplo, una imagen falsa de Taylor Swift fue vista 47 millones de veces en la red social X a finales de enero antes de ser eliminada. Según la prensa estadounidense, la publicación permaneció en línea en la plataforma durante aproximadamente 17 horas.

Si bien Nick Clegg admite que este etiquetado a gran escala, a través de marcadores invisibles, «no eliminará» totalmente el riesgo de producción de imágenes falsas, «ciertamente minimizará» su proliferación «dentro de los límites de lo que la tecnología permite actualmente».

«No es perfecto, la tecnología aún no está completamente desarrollada, pero de todas las plataformas es el intento más avanzado hasta ahora para proporcionar transparencia de forma significativa a miles de millones de personas en todo el mundo», dijo Clegg a la AFP.

«Espero sinceramente que al hacer esto y liderar el camino, alentemos al resto de la industria a trabajar juntos y tratar de desarrollar los estándares técnicos comunes que necesitamos», agregó el líder de Meta, que está dispuesto a «compartir» su tecnología abierta «tan ampliamente como sea posible».

La empresa OpenAI, creadora de ChatGPT, también anunció a mediados de enero el lanzamiento de herramientas para combatir la desinformación, y afirmó su voluntad de no permitir el uso de sus herramientas tecnológicas con fines políticos.

«Queremos asegurarnos de que nuestra tecnología no se utilice de manera que perjudique» al proceso democrático, explicó OpenAI, que señaló que su generador de imágenes DALL-E 3 contiene «salvaguardas» para evitar que los usuarios generen imágenes de personas reales, especialmente candidatos.

AFP

Mantente atento a todas las actualidades del momento, a través de @CLX.Icons en Instagram y en todas nuestras redes sociales. ¡Léenos y sé parte de lo icónico!

Otros Artículos