fbpx
Image Image Image Image Image Image Image Image Image Image
Scroll to top

Top

No Comments

Facebook no está de acuerdo con “El Dilema de las Redes”

Facebook no está de acuerdo con “El Dilema de las Redes”
Samir Estefan

NO. PUEDE. SER. Facebook no está de acuerdo con “El Dilema de las Redes”. #QueSorpresa.

Si aún lo ha visto (debería verlo, es super recomendado) el documental de Netflix pone el dedo en la llaga y revela lo que para muchos usuarios parece ser una sorpresa: que los algoritmos que manejan Facebook, Instagram, Twitter, TikTok y las demás redes sociales están diseñados para esclavizarnos y para enviciarnos. Y que gracias a toda la información que les hemos dado hoy están en capacidad no sólo de predecir nuestras acciones sino que pueden manipularnos -a nivel digital y real- para que hagamos las cosas que ellos quieren.

Esta mañana publicamos un episodio de DGTal sobre el tema. Lo invito a que lo escuche. Está disponible en Apple Podcasts, en Spotify, en Spreaker o directamente aquí en TECHcetera.Co.

En un post publicado el viernes, el equipo de Facebook habla de la importancia de tener una conversación abierta sobre el impacto de las redes sociales en nuestras vidas pero acusa a los productores del documental de “sensacionalismo” y de no reconocer los recientes esfuerzos de compañías como Facebook para contrarrestar las denuncias que se hacen en el mismo.

Y menciona 7 puntos, que puede leer en detalle siguiendo este link, pero que resumo y comento desde mi humilde punto de vista.

  1. Adicción – “Facebook construye sus productos para crear valor, no para ser adictivos”.
    Lindo comentario. Muy vendedor. Pero está comprobado que los algoritmos de la plataforma están diseñados para promover el mayor uso de la plataforma posible de parte de los usuarios, para asegurar que los usuarios permanecen dentro de ella el mayor tiempo posible y que, cuando no han entrado, reciben un pequeño estímulo para que ingresen.

  2. Usted no es el producto – “el modelo de negocio de Facebook está basado en la publicad para permitir que siga siendo gratis para la gente”.
    #YeahRight. A quien escribió el post se le olvidó decir que es publicidad personalizada. Y que para poder personalizarla la plataforma registra y analiza todo lo que usted hace, no sólo en ella sino en millones de sitios por los que lo sigue sigilosamente (es por eso que no está muy feliz con algunas de las opciones de iOS 14 que veremos en Enero). Usted (y yo) somos el producto.

Si quiere saber qué tan detallado es el perfil que Facebook vende de usted, siga este otro link.

  1. Algoritmos – “Los algoritmos de Facebook no están locos. Mantiene la plataforma relevante y útil”.
    El algoritmo tiene una única finalidad: que usted dure el mayor tiempo posible en la plataforma. Si para eso tiene que mostrarle contenido más radical, más controversial, más explosivo, eso es lo que hará. Si para eso tiene que recomendarle grupos -de neofacistas, de terraplanistas, de antivacunas, de uribistas, de petristas, de extremistas- eso es lo que hará. Definir “relevante” y “útil” en medio de la división que ha generado la plataforma y el alcance que le ha ofrecido a los más extremistas es difícil.

  2. Información – “Facebook ha hecho mejoras para proteger la privacidad de la gente”.
    Tengo sólo 2 palabras: Cambridge Analytica. Y aunque hay que reconocer que la compañía ha implementado algunas mejoras y controles adicionales, no deja de sorprender que esté amenazando con irse de Europa por las regularizaciones de privacidad que la Comunidad Económica Europea sigue promoviendo.

  3. Polarización – “Tomamos medidas para reducir el contenido que lleve a la polarización”.
    Mmmmm. La compañía también ha dicho “Facebook es solo un reflejo de nuestra sociedad” y sólo hasta la semana pasada ha tomado medidas para eliminar grupos nacionalistas y de supremacía blanca en Estados Unidos. Pero no sólo no hizo nada en contra sino que fue fundamental en la exterminación de los Rohingyas en Myanmar

  4. Elecciones – “Facebook ha invertido para proteger la integridad de las elecciones”
    El daño ya está hecho. Cómo puede hablar de integridad cuando está comprobado de cómo la plataforma ha sido usada, una y otra vez, para engañar a los votantes, para manipularlos para que no votaran.

Y la compañía se ha negado constantemente a hacer responsable de sus mentiras al grueso de políticos que les generan un gran número de usuarios e interacciones. Si en realidad quisiera proteger las elecciones, prohibiría la publicidad política pagada (la que incluye mentiras y la que no), eliminaría por completo la posibilidad de micro-targeting de la publicidad asociada a campañas políticas y por lo menos marcaría los posts de políticos, de sus campañas y de sus seguidores que tengan mentiras como tal.

  1. Desinformación – “Luchamos las noticias falsa, la desinformación y el contenido nocivo utilizando una red global de fact-checking partners”.
    ¿Ha oido hablar de Pizza Gate? ¿Ha escuchado de QAnon? ¿Se acuerda de las cartillas que iban a volver gays a todos los niños? La misma descripción escrita por Facebook explica su posición: lavarse las manos y delegar la responsabilidad en otros (los fact-checkers) para poder seguir dándole libertad a quienes promueven la desinformación con la excusa de “libertad de expresión”.

Es cierto que el Facebook de hoy no es el mismo Facebook de hace 4 años. Pero está lejos de ser lo que debe ser y de hacer lo que debe hacer. Y eso es precisamente lo que El Dilema de las Redes denuncia. Y no sólo es Facebook. Es el modelo de Economía de la Vigilancia, lo que en realidad genera el problema.

¿Se vieron el documental? Me encantaría oír sus opiniones!