arrow-downcloseCNNEcomment-02commentglobeplaylistsearchsocial-facebooksocial-googleplussocial-instagramsocial-linkedinsocial-mailsocial-moresocial-twittersocial-whatsapp-01social-whatsapptimestamptype-audiotype-gallery
Facebook

Facebook tiene claro que sí influye en las elecciones, pero ¿cómo?

Por Seth Fiegerman

(CNN) -- Durante las primarias republicanas, los poderosos datos de Facebook le revelaron al equipo de Ted Cruz con qué anuncios publicitarios podrían ganarles a los votantes de Donald Trump.

Uno de ellos destacaba la cómoda relación que Trump mantuvo con varios políticos a lo largo de los años. Otro presentaba un emocional discurso de Cruz en el que hablaba de ser un hombre por fuera de política que podría arreglar a Washington y la Casa Blanca.

Estos anuncios fueron ampliamente informados y distribuidos a través de Facebook. Tommy Swanson, director ejecutivo de la empresa de marketing digital Stripes, usó las avanzadas herramientas publicitarias que ofrece Facebook para apuntarle a públicos demográficos específicos y para medir el impacto.

“En Iowa, por ejemplo, ya sabíamos qué anuncio o pieza iba a convertir a los seguidores de Carson mayores de 40 años en partidarios de Cruz”, aseguró Swason, cuya agencia trabajó apoyando la candidatura del senador.

Cruz ganó Iowa, el primer estado que votó en las primarias, y su racha de triunfos en el supermartes continuó con tres estados más. Uno de esos lugares fue Texas, donde la campaña que Swanson implementó en Facebook llevó a “incrementar la intención de voto por Ted Cruz” entre quienes se habían inclinado previamente por Trump.

Este relato pertenece a las “historias de éxito” sobre publicidad política, que están incluidas en la página oficial de marketing de Facebook. Las narraciones ponen de relieve cómo las campañas políticas usaron las herramientas publicitarias de esta red social para conseguir un aumento en los registros de votantes, más apoyo entre los hispanos y lograr que los electores eligieran a un candidato sobre otro.

publicidad

En resumen, estas historias demuestran que Facebook se presenta como una plataforma que puede influir en las decisiones electorales, tal y como lo hace con las compras. Sin embargo, eso no queda tan claro cuando el director ejecutivo de esta red social niega que las noticias falsas, que circularon descontroladamente en Facebook, habrían cambiado la manera en que las personas votaron el día de las elecciones presidenciales.

“Personalmente, creo que la idea de que las noticias falsas en Facebook –que representan una pequeña porción del contenido– influyeron en la elección es bastante alocada por dónde se mire”, aseguró Mark Zuckerberg en la conferencia Techonomy este martes.

El punto de Zuckerberg, desarrollado y explicado más tarde en un post de Facebook, radica en que las noticias falsas son “solo una pequeña cantidad” de lo que muestra la red social en el News Feed (página principal). “Más del 99% de lo que ven las personas es auténtico”, escribió. Entonces, ¿qué tanto impacto pudo tener en las elecciones?

Para algunos de quienes han trabajado en Facebook, sin embargo, los comentarios de Zuckerberg contradicen el discurso de la red social ante los anunciantes.

“En 2012, ante los anunciantes políticos el ángulo era decir, precisamente, que Facebook podía influir en los electores”, señaló Antonio García-Martínez, quien hasta 2013 trabajó como gerente de públicos objetivos para anuncios en Facebook. “Ahora Zuck está diciendo que eso es imposible”, añadió.

“Facebook entendió que podía influir en una elección desde hace tanto que yo todavía seguía allí”, explicó García-Martínez, autor de Chaos Monkeys, un libro sobre el tiempo que pasó trabajando en Silicon Valley.

Andy Stone, portavoz de Facebook, no quiso comentar más allá de las declaraciones públicas que ya había dado Zuckerberg.

Facebook ahora está tropezando en medio de un equilibrio complicado. Su negocio principal se basa en la premisa de que los anunciantes pueden usar las herramientas publicitarias para llegarles a los usuarios correctos, con el mensaje correcto, en el momento correcto y, en últimas, llevando al mejor resultado posible.

La misma dinámica aplica para los anuncios políticos. El mes pasado, la compañía Citigroup dijo que Facebook y Google serían las empresas con más recursos para publicidad política digital durante el ciclo electoral de 2016. Incluso sugirió que Facebook podría superar a Google por primera vez.

Pero, por otro lado, Facebook no quiere ser famoso por tener el poder suficiente para determinar elecciones, ya sea deliberadamente o no.

Ciertamente, hay una diferencia entre influir a unos pocos votantes a través de anuncios o noticias falsas y decidir de una sola mano una elección. El problema, de acuerdo a empleados que ya salieron de la compañía, es que los trabajadores de Facebook no siempre pueden saber con exactitud todo el impacto que tendrá en los votantes cada pequeño cambio que le hacen a la plataforma.

“Este es un producto muy poderoso y puede tener efectos que nunca imaginamos”, aseguró un exempleado de Facebook que aceptó hablar bajo la condición de anonimato.

García-Martínez recuerda un rumor sobre el nerviosismo que invadió a los empleados de Facebook en 2012. Iban a lanzar un mensaje de votación para los usuarios de iPhone que podría haber beneficiado a Obama. La razón: los dueños de estos celulares tienden a vivir en las costas y a ser más liberales.

Esto puede sonar ridículo –y probablemente lo es–, pero el miedo tiene que ver con el tremendo alcance e influencia que tiene Facebook en las cosas, incluidas las elecciones.

Judi Antin, una exinvestigadora en Facebook, pidió a la compañía que hiciera más encuestas y análisis sobre el problema de las noticias falsas, en vez de remitirse a datos tan amplios como que el 99% son contenidos diferentes, cifra citada por Zuckerberg en su post.

Como señaló Antin en su post de Medium esta semana, ese 1% puede ser bastante grande si tienes en cuenta que más de mil millones de personas revisan Facebook cada día.

“Parece que Mark y sus líderes aplicaron su propia intuición usando una fuerte dosis de sesgo e interés propios”, escribió Antin. “Se precipitó a la conclusión sobre qué significa y por qué y no dio información de calidad sobre cómo las noticias falsas pueden importar”, añadió.

"Cuando los datos se convierten en datos miope, todos sufrimos", insistió Antin. "Me preocupa que la toma de decisiones en Facebook haya perdido su humanidad. Eso es atemorizante dado el papel central que juega en nuestro mundo”, concluyó.