Las plataformas de Meta están diseñadas para ser lugares donde las personas puedan expresarse libremente. Eso puede ser complicado. En plataformas donde miles de millones de personas pueden tener voz, todo lo bueno, lo malo y lo feo está a la vista. Pero eso es libertad de expresión.
En su discurso de 2019 en la Universidad de Georgetown, Mark Zuckerberg argumentó que la libre expresión ha sido la fuerza impulsora detrás del progreso en la sociedad estadounidense y en todo el mundo y que inhibir el discurso, por muy bien intencionadas que sean las razones para hacerlo, a menudo refuerza las instituciones y estructuras de poder existentes. en lugar de empoderar a la gente. Dijo: “Algunas personas creen que dar voz a más personas es generar división en lugar de unirnos. Más personas en todo el espectro creen que lograr los resultados políticos que consideran importantes es más importante que que cada persona tenga voz. Creo que eso es peligroso”.
En los últimos años hemos desarrollado sistemas cada vez más complejos para gestionar el contenido en nuestras plataformas, en parte como respuesta a la presión social y política para moderar el contenido. Este enfoque ha ido demasiado lejos. Por muy bien intencionados que hayan sido muchos de estos esfuerzos, se han expandido con el tiempo hasta el punto en que cometemos demasiados errores, frustramos a nuestros usuarios y con demasiada frecuencia obstaculizamos la libre expresión que nos propusimos permitir. Se censura demasiado contenido inofensivo, demasiadas personas se encuentran encerradas erróneamente en la “cárcel de Facebook” y, a menudo, somos demasiado lentos para responder cuando lo hacen.
Queremos arreglar eso y volver a ese compromiso fundamental con la libre expresión. Hoy estamos realizando algunos cambios para mantenernos fieles a ese ideal.
Poner fin al programa de verificación de datos de terceros y pasar a las notas comunitarias
Cuando lanzamos nuestro programa independiente de verificación de datos en 2016, teníamos muy claro que no queríamos ser los árbitros de la verdad. Tomamos lo que pensamos que era la mejor y más razonable decisión en ese momento: entregar esa responsabilidad a organizaciones independientes de verificación de datos. La intención del programa era que estos expertos independientes brindaran a las personas más información sobre las cosas que ven en línea, en particular los engaños virales, para que pudieran juzgar por sí mismos lo que vieron y leyeron.
No fue así como sucedieron las cosas, especialmente en Estados Unidos. Los expertos, como todos los demás, tienen sus propios prejuicios y perspectivas. Esto se manifestó en las decisiones que algunos tomaron sobre qué verificar y cómo. Con el tiempo, terminamos con demasiado contenido verificado que la gente entendería como discurso y debate político legítimo. Nuestro sistema tuvo entonces consecuencias reales en forma de etiquetas intrusivas y una distribución reducida. Un programa destinado a informar se convirtió con demasiada frecuencia en una herramienta de censura.
Ahora estamos cambiando este enfoque. Terminaremos el actual programa de verificación de datos de terceros en los Estados Unidos y, en su lugar, comenzaremos a pasar a un programa de Notas comunitarias. Hemos visto que este enfoque funciona en X, donde empoderan a su comunidad para decidir cuándo las publicaciones son potencialmente engañosas y necesitan más contexto, y personas de una amplia gama de perspectivas deciden qué tipo de contexto es útil para que otros usuarios lo vean. Creemos que esta podría ser una mejor manera de lograr nuestra intención original de brindar a las personas información sobre lo que ven, y una manera que sea menos propensa a sesgos.
- Una vez que el programa esté en funcionamiento, Meta no escribirá notas de la comunidad ni decidirá cuáles aparecen. Están escritos y calificados por usuarios contribuyentes.
- Al igual que en X, las Notas de la comunidad requerirán un acuerdo entre personas con una variedad de perspectivas para ayudar a evitar calificaciones sesgadas.
- Tenemos la intención de ser transparentes sobre cómo los diferentes puntos de vista informan las Notas que se muestran en nuestras aplicaciones y estamos trabajando en la forma correcta de compartir esta información.
- Las personas pueden registrarse hoy (Facebook, Instagram, Trapos) por la oportunidad de estar entre los primeros contribuyentes a este programa a medida que esté disponible.
Planeamos implementar Notas comunitarias en los EE. UU. primero durante los próximos meses y continuaremos mejorándolas a lo largo del año. A medida que hagamos la transición, nos desharemos de nuestro control de verificación de datos, dejaremos de degradar el contenido verificado y, en lugar de superponer advertencias intersticiales en pantalla completa en las que debe hacer clic antes de poder ver la publicación, usaremos un control mucho menos Etiqueta llamativa que indica que hay información adicional para aquellos que quieran verla.
Permitir más discurso
Con el tiempo, hemos desarrollado sistemas complejos para gestionar el contenido en nuestras plataformas, que nos resultan cada vez más complicados de aplicar. Como resultado, hemos estado aplicando excesivamente nuestras reglas, limitando el debate político legítimo, censurando demasiado contenido trivial y sometiendo a demasiadas personas a acciones frustrantes para hacer cumplir la ley.
Por ejemplo, en diciembre de 2024, eliminamos millones de contenidos todos los días. Si bien estas acciones representan menos del 1% del contenido producido cada día, creemos que una o dos de cada 10 de estas acciones pueden haber sido errores (es decir, es posible que el contenido no haya violado nuestras políticas). Esto no tiene en cuenta las acciones que tomamos para hacer frente a ataques de spam adversarios a gran escala. Planeamos ampliar nuestros informes de transparencia para compartir cifras sobre nuestros errores de forma regular para que la gente pueda seguir nuestro progreso. Como parte de eso, también incluiremos más detalles sobre los errores que cometemos al aplicar nuestras políticas de spam.
Queremos deshacer el avance gradual de la misión que ha hecho que nuestras reglas sean demasiado restrictivas y propensas a una aplicación excesiva. Nos estamos deshaciendo de una serie de restricciones sobre temas como la inmigración, la identidad de género y el género que son objeto de frecuentes discursos y debates políticos. No está bien que se puedan decir cosas en la televisión o en el pleno del Congreso, pero no en nuestras plataformas. Estos cambios de política pueden tardar algunas semanas en implementarse por completo.
También vamos a cambiar la forma en que aplicamos nuestras políticas para reducir el tipo de errores que representan la gran mayoría de la censura en nuestras plataformas. Hasta ahora, hemos estado utilizando sistemas automatizados para buscar todas las violaciones de políticas, pero esto ha resultado en demasiados errores y en la censura de demasiado contenido que no debería haber sido censurado. Por lo tanto, vamos a seguir enfocando estos sistemas en abordar violaciones ilegales y de alta gravedad, como el terrorismo, la explotación sexual infantil, las drogas, el fraude y las estafas. Para infracciones de políticas menos graves, confiaremos en que alguien informe un problema antes de tomar cualquier medida. También degradamos demasiado contenido que nuestros sistemas predicen que podría violar nuestros estándares. Estamos en el proceso de deshacernos de la mayoría de estas degradaciones y exigir una mayor confianza en que el contenido infringe para el resto. Y vamos a ajustar nuestros sistemas para que requieran un grado mucho mayor de confianza antes de eliminar un contenido. Como parte de estos cambios, trasladaremos los equipos de confianza y seguridad que redactan nuestras políticas de contenido y revisan el contenido de California a Texas y otras ubicaciones de EE. UU.
A menudo, las personas tienen la oportunidad de apelar nuestras decisiones de cumplimiento y pedirnos que volvamos a analizarlas, pero el proceso puede ser frustrantemente lento y no siempre llega al resultado correcto. Hemos agregado personal adicional a este trabajo y, en más casos, ahora también requerimos que varios revisores lleguen a una determinación para eliminar algo. Estamos trabajando en formas de hacer que la recuperación de cuentas sea más sencilla y probando la tecnología de reconocimiento facial, y hemos comenzado a utilizar modelos de lenguaje grande (LLM) de IA para brindar una segunda opinión sobre algunos contenidos antes de tomar medidas coercitivas.
Un enfoque personalizado del contenido político
Desde 2021, hemos realizado cambios para reducir la cantidad de contenido cívico que ve la gente (publicaciones sobre elecciones, política o temas sociales) en función de los comentarios que nos dieron nuestros usuarios de que querían ver menos de este contenido. Pero este fue un enfoque bastante directo. Vamos a comenzar a implementar esto gradualmente en Facebook, Instagram y Threads con un enfoque más personalizado para que las personas que quieran ver más contenido político en sus feeds puedan hacerlo.
Estamos probando continuamente cómo ofrecemos experiencias personalizadas y recientemente hemos realizado pruebas en torno al contenido cívico. Como resultado, comenzaremos a tratar el contenido cívico de las personas y las páginas que sigues en Facebook más como cualquier otro contenido en tu feed, y comenzaremos a clasificar y mostrarte ese contenido en función de señales explícitas (por ejemplo, dar me gusta a un fragmento de contenido) y señales implícitas (como ver publicaciones) que nos ayudan a predecir qué es significativo para las personas. También recomendaremos más contenido político basado en estas señales personalizadas y ampliaremos las opciones que tienen las personas para controlar la cantidad de este contenido que ven.
Estos cambios son un intento de volver al compromiso con la libre expresión que Mark Zuckerberg planteó en su discurso de Georgetown. Eso significa estar atentos al impacto que nuestras políticas y sistemas están teniendo en la capacidad de las personas para hacer oír su voz, y tener la humildad de cambiar nuestro enfoque cuando sabemos que estamos haciendo las cosas mal.