La carrera por encontrar una mejor manera de etiquetar la IA

Blog

HogarHogar / Blog / La carrera por encontrar una mejor manera de etiquetar la IA

Aug 31, 2023

La carrera por encontrar una mejor manera de etiquetar la IA

Un protocolo de Internet llamado C2PA utiliza criptografía para etiquetar imágenes, videos y audio. Este artículo es de The Technocrat, el boletín semanal de política tecnológica del MIT Technology Review sobre poder, política,

Un protocolo de Internet llamado C2PA utiliza criptografía para etiquetar imágenes, videos y audio.

Este artículo es de The Technocrat, el boletín semanal de política tecnológica del MIT Technology Review sobre el poder, la política y Silicon Valley. Para recibirlo en tu bandeja de entrada todos los viernes, regístrate aquí.

Recientemente escribí una historia corta sobre un proyecto respaldado por algunas de las principales empresas de tecnología y medios que intenta ayudar a identificar contenido creado o alterado por IA.

Con el auge de los textos, imágenes y videos generados por IA, tanto los legisladores como los usuarios promedio de Internet han estado pidiendo más transparencia. Aunque podría parecer una petición muy razonable simplemente agregar una etiqueta (que lo es), en realidad no es fácil, y las soluciones existentes, como la detección y las marcas de agua basadas en inteligencia artificial, tienen algunos inconvenientes graves.

Como ha escrito mi colega Melissa Heikkilä, la mayoría de las soluciones técnicas actuales "no tienen ninguna posibilidad frente a la última generación de modelos de lenguaje de IA". Sin embargo, la carrera por etiquetar y detectar contenido generado por IA está en marcha.

Ahí es donde entra en juego este protocolo. Iniciado en 2021, C2PA (llamado así por el grupo que lo creó, la Coalición para la Procedencia y Autenticidad del Contenido) es un conjunto de nuevos estándares técnicos y código disponible gratuitamente que etiqueta de forma segura el contenido con información que aclara de dónde proviene. de.

Esto significa que una imagen, por ejemplo, está marcada con información por el dispositivo desde el que se originó (como la cámara de un teléfono), por cualquier herramienta de edición (como Photoshop) y, en última instancia, por la plataforma de redes sociales en la que se carga. Con el tiempo, esta información crea una especie de historial, todo el cual queda registrado.

La tecnología en sí (y las formas en que C2PA es más seguro que otras alternativas de etiquetado de IA) es bastante buena, aunque un poco complicada. En mi artículo profundizo más en ello, pero quizás sea más fácil pensar en ello como una etiqueta nutricional (que es la analogía preferida de la mayoría de las personas con las que hablé). Puedes ver un ejemplo de un vídeo deepfake aquí con la etiqueta creada por Truepic, miembro fundador de C2PA, con Revel AI.

"La idea de procedencia es marcar el contenido de una manera interoperable y a prueba de manipulaciones para que pueda viajar a través de Internet con esa transparencia, con esa etiqueta nutricional", dice Mounir Ibrahim, vicepresidente de asuntos públicos de Truepic.

Cuando se lanzó por primera vez, C2PA contaba con el respaldo de un puñado de empresas destacadas, incluidas Adobe y Microsoft, pero en los últimos seis meses, su membresía aumentó un 56%. Esta misma semana, la importante plataforma de medios Shutterstock anunció que utilizaría C2PA para etiquetar todos sus medios generados por IA.

Se basa en un enfoque de suscripción voluntaria, por lo que los grupos que quieran verificar y revelar de dónde proviene el contenido, como un periódico o un anunciante, optarán por agregar las credenciales a un medio de comunicación.

Uno de los líderes del proyecto, Andy Parsons, que trabaja para Adobe, atribuye el nuevo interés y la urgencia en torno a C2PA a la proliferación de la IA generativa y a la expectativa de una legislación, tanto en EE. UU. como en la UE, que exigirá nuevos niveles de transparencia. .

La visión es grandiosa: las personas involucradas me admitieron que el verdadero éxito aquí depende de una adopción generalizada, si no universal. Dijeron que esperan que todas las principales empresas de contenidos adopten el estándar.

Para eso, dice Ibrahim, la usabilidad es clave: “Hay que asegurarse de que, sin importar a dónde vaya en Internet, se lea y se ingiera de la misma manera, de manera muy similar al cifrado SSL. Así es como se escala un ecosistema en línea más transparente”.

Este podría ser un avance crítico a medida que nos adentramos en la temporada electoral de EE. UU., cuando todos los ojos estarán atentos a la desinformación generada por la IA. Los investigadores del proyecto dicen que están compitiendo para lanzar nuevas funciones y cortejar más plataformas de redes sociales antes del ataque esperado.

Actualmente, C2PA trabaja principalmente con imágenes y videos, aunque los miembros dicen que están trabajando en formas de manejar contenido basado en texto. En el artículo analizo algunas de las otras deficiencias del protocolo, pero lo que es realmente importante entender es que incluso cuando se revela el uso de la IA, es posible que no evite el daño de la información errónea generada por máquinas. Las plataformas de redes sociales aún tendrán que decidir si mantienen esa información en sus sitios, y los usuarios tendrán que decidir por sí mismos si confiarán en el contenido y lo compartirán.

Esto recuerda un poco a las iniciativas de las plataformas tecnológicas de los últimos años para etiquetar la información errónea. Facebook calificó más de 180 millones de publicaciones como información errónea antes de las elecciones de 2020, y claramente todavía había problemas considerables. Y aunque C2PA no tiene la intención de asignar indicadores de precisión a las publicaciones, está claro que simplemente proporcionar más información sobre el contenido no necesariamente puede salvarnos de nosotros mismos.

Los investigadores todavía están tratando de determinar cómo las plataformas de redes sociales y sus algoritmos afectan nuestras creencias políticas y nuestro discurso cívico. Esta semana, cuatro nuevos estudios sobre el impacto de Facebook e Instagram en la política de los usuarios durante las elecciones de 2020 mostraron que los efectos son bastante complicados. Los estudios, publicados por la Universidad de Texas, la Universidad de Nueva York, Princeton y otras instituciones, encontraron que si bien las noticias que la gente lee en las plataformas mostraban un alto grado de segregación por opiniones políticas, eliminar el contenido compartido de los feeds en Facebook no cambió la política. creencias.

El tamaño de los estudios los está convirtiendo en algo importante en el mundo académico esta semana, pero la investigación está recibiendo cierto escrutinio por su estrecha colaboración con Meta.

¿Puede una inyección masiva de dinero para fabricar chips de computadora transformar la economía de Siracusa y mostrarnos cómo reconstruir la base industrial de la nación?

Es posible que esté llegando una nueva era de política interna impulsada por la IA. Esté atento a estos hitos para saber cuándo llegará.

Los políticos destacados quieren asegurarse de que nunca exista una moneda digital del banco central en los EE. UU., tal como hemos aprendido los conceptos básicos de cómo podría funcionar.

Un proyecto de ley de Massachusetts que restrinja el uso policial podría establecer el estándar sobre cómo se regula la tecnología en Estados Unidos. Si fracasa, será un duro golpe para un movimiento que alguna vez fue prometedor.

Descubra ofertas especiales, noticias destacadas, próximos eventos y más.

¡Gracias por enviar tu correo electrónico!

Parece que algo salió mal.

Estamos teniendo problemas para guardar sus preferencias. Intente actualizar esta página y actualizarla una vez más. Si continúa recibiendo este mensaje, comuníquese con nosotros a [email protected] con una lista de los boletines que le gustaría recibir.

Lo que estoy leyendo esta semanaLo que aprendí esta semana