Si recordáis en el anterior post os adelantábamos cómo las constantes actualizaciones del algoritmo de Google están afectando de manera cada vez más severa al posicionamiento de aquellas marcas que no miman la experiencia de usuario en su entorno web. 

Como ya os introducíamos, todas las nuevas tendencias en cuanto a temática SEO de cara a 2022 aportan una vuelta de tuerca más para mejorar la calidad y la experiencia de los resultados ofrecidos, y no estamos hablando únicamente de premiar la accesibilidad, los contenidos de calidad, extensos …  

Va mucho más allá, y es que, en cada actualización, Google está poniendo énfasis en: 

– Trabajar el entendimiento de las nuevas formas de búsqueda y que pueden resultar un punto de inflexión de cara al futuro, como puede ser la voz. Esto nos obligará a «traducir» los contenidos escritos a un lenguaje natural, pensando en cómo hablan los usuarios y no en cómo escriben. 

“El 58% de los consumidores las utilizan para encontrar información sobre negocios locales, sobre todo, a través de asistentes como el de Google, Siri o Alexa”. www.cyberclick.es/numerical-blog/las-tendencias-en-seo-que-no-debes-ignorar 

– Continuar con la introducción de la IA, dotando a su algoritmo RankBrain de la capacidad de entender la intencionalidad de búsqueda del usuario. Este algoritmo nacido en 2015, va mejorando cada actualización y ya puede asignar significado a las búsquedas de los usuarios a través de las palabras y frases completa, además de tener la capacidad de modificar sus propios resultados en función de la ubicación de la búsqueda, su relevancia o los patrones de comportamiento de los usuarios. 

– Marcar los estándares a través de las métricas Core Web Vitals que Google aplicará a todas las webs para intentar mejorar los aspectos enfocados a la experiencia del usuario: tiempo de carga, interactividad y estabilidad visual. 

– Ofrece el enriquecimiento de resultados a través de imágenes, enlaces y reseñas… 

Nos apasiona este tema y hemos querido continuar hablando de la temática SEO, pero en el post de esta semana lo vamos a hacer desde el enfoque de su medición, porque la cuestión es que, si existen cambios en las reglas, ¿es necesario adaptar nuestra forma de medir para poder realizar una buena optimización? 

La respuesta es un rotundo “sí”. Una buena estrategia SEO debe ir de la mano de una medición analítica que le ayude a monitorizar y controlar las optimizaciones aportadas. Y si ahora más que nunca el cliente está en el centro y se premia la experiencia, la analítica web lo tiene que reflejar. 

Gráfico

Para este fin, nos encontramos con la necesidad de utilizar herramientas especializadas que nos pueden ayudar a optimizar nuestros contenidos, ver oportunidades y detectar comportamientos destacados sobre algunos de los términos utilizados.  

La base de nuestra medición se va a centrar en la utilización de Google Analytics que proporciona insights sobre el comportamiento del usuario y el tráfico de la web, dos de los kpi´s más relevantes para el SEO. A esta base, debemos añadirle con otros elementos complementarios e indispensables que el propio Google aporta en todo su abanico de herramientas, como son el servicio de Search Console, que ayuda a entender de qué manera Google ve la web o Google Speed, encargada de analizar y evaluar la velocidad de carga de una página web en cada dispositivo utilizado. 

Además de este kit que Google ofrece, existen otras herramientas externas, aunque con un coste asociado, que a través de una visión más aséptica evalúan estos mismos parámetros, como es el caso de Semrush, la herramienta SEO por excelencia que, entre su multitud de funcionalidades, cuenta con un sensor de volatilidad en la SERPs (Search Engine Result Pages) el cual, permite rastrear cuáles son las actualizaciones que están pudiendo afectar a tu web.  

Por último, repasando las métricas que siempre deberemos monitorizar, nos encontramos con: la evaluación del estado de indexación respecto al índice de Google, las palabras clave posicionadas, la visibilidad en las SERPs, el análisis de los backlincks, y ahora, gracias a las nuevas actualizaciones, debemos poner un foco especial en la visibilidad y rendimiento en los dispositivos móviles, así como en la velocidad de carga, ambas evaluadas a través de los Core Web Vitals, como ya os introdujimos en el anterior post. 

Damos gracias a que la Comunidad SEO es muy colaborativa y ya existen plantillas de etiquetas para la medición de estos nuevos estándares LCP, FID y CLS en Google Analytics. Os dejamos por aquí una referencia muy útil de una guía de implementación. 

www.simoahava.com/analytics/track-core-web-vitals-in-ga4-with-google-tag-manager 

Respecto al análisis del tráfico y comportamiento de los usuarios en la web, sí que podemos afirmar que más pronto que tarde, se van a ver obligados a un cambio de enfoque en la medición. Este hecho ya se venía observando en el planteamiento Google Analytics 4.0 frente al anterior, pero aún vigente, Universal Analytics. Este tema ya fue tratado en uno de nuestros anteriores posts donde introducíamos las principales diferencias de GA4: 

Ahora el paradigma cambia, los eventos se convierten en los protagonistas diciendo adiós a las sesiones y las páginas vistas tan utilizadas hasta ahora.  Con esta actualización, las vistas de páginas no son otra cosa que un evento más, y la calidad de la navegación se medirá por tiempo y % de scroll, en lugar de ser medida con la actual tasa de rebote. De esta forma, se simplifica todo el proceso tratando de utilizar una métrica que unifique el comportamiento multiplataforma del usuario para poder medir de una forma más granular y con una perspectiva más de negocio todas las interacciones del usuario”. 

Por otro lado, ya que las métricas de comportamiento han sido las más cuestionadas históricamente en la versión de UA, Google ha centrado su esfuerzo en mejorar tanto, la medición de las conversiones, como la medición del compromiso (tasa de participación, tiempo de participación por sesión…) ahora basados en los mencionados eventos. Por este mismo motivo, otra incorporación que nos puede beneficiar, es su módulo de interacción, el cual puede recopilar todas las métricas de participación en un informe personalizado separado para tenerlas a mano sin cambiar de un informe a otro. 

Esta versión de la herramienta se centra más en la participación durante la navegación, tanto en sus informes, como en el propio menú. La nueva sección que se conoce como Ciclo de vida, divide el análisis en las categorías de Adquisición, Compromiso, Monetización y Retención dejando atrás la anterior clasificación (Audiencia, Adquisición, Comportamiento y Conversión). Esta perspectiva trabaja de forma más alineada al objetivo de la optimización SEO a través de nuevas dimensiones y métricas centradas en el usuario. Además, GA4 incorpora una capa de inteligencia artificial que nos ayuda a predecir las acciones y el valor del cliente. 

Como veis, hay que estar preparados para adaptarnos de manera rápida a cualquier tipo de cambio que se produzca en el entorno volátil en el que nos ha tocado desarrollar nuestra actividad empresarial, aprovechando cualquier tipo de oportunidad que pueda surgir en el mismo, por eso, desde Grupo Ideonomía es un placer poder acompañar en este proceso de adaptación a cada uno de nuestros clientes.  

Porque como ya os habíamos adelantado antes, si no queremos ser invisibles a los ojos de nuestro target y formar parte del abanico de posibilidades con el que un usuario cuenta para saciar una necesidad, adaptarnos a las actualizaciones y cambios, deja de ser una opción para convertirse en una obligación.  

Bibliografía 

https://carlosalvador.com/kpi-google-analytics-indicadores-seo/

https://neilpatel.com/es/blog/5-metricas-de-interaccion-que-te-ayudaran-a-mejorar-tu-posicionamiento-en-google/

https://neilpatel.com/es/blog/5-estrategias-de-google-analytics/

www.optimizacion-online.com/propiedades-de-google-analytics-4/ 

www.cyberclick.es/numerical-blog/las-tendencias-en-seo-que-no-debes-ignorar 

www.digitalmenta.com/seo/que-es-google-rankbrain/ 

En la mayoría de ocasiones y circunstancias, actuamos por necesidad, si esto lo trasladamos al ecosistema digital y por poner algún ejemplo, en el caso de aquellos que tienen un negocio y que quieren dar a conocer sus productos o servicios, la necesidad de obtener visibilidad resulta primordial… Visibilidad en aquellos lugares donde pueden ofrecer esos servicios y productos y donde pueden dar respuesta a las búsquedas de los usuarios. 

Como usuarios, cuando tenemos cualquier inquietud o necesidad por satisfacer, el primer lugar donde buscamos respuestas, es en internet (aunque luego tengamos que realizar cierto cribado), y dentro de internet y como el 97% de los españoles, dentro de Google.  

El gigante de internet, no solo dicta las reglas, sino que hace que resulte indispensable seguirlas para poder trabajar los objetivos de visibilidad que tienen las marcas, tanto es así que, si hablamos de visibilidad en buscadores, Google cambia y actualiza constantemente el algoritmo de su motor de búsqueda, con la intención ofrecer los mejores resultados a los usuarios a partir de lo que interpreta como la mejor experiencia de este dentro de los sites que visita.  

Esto significa que si quieres tener visibilidad, como opción para obtener resultados para tu negocio, tienes la obligación de estar al tanto del funcionamiento del algoritmo del buscador, como de las actualizaciones que de manera frecuente tiene por costumbre lanzar para seguir dictando las normas. 

En este sentido, a finales de 2019 comentábamos en nuestro blog, una de las actualizaciones más importantes Google, respecto al posicionamiento orgánico (SEO) de los sites en su buscador: BERT y de cómo esta actualización pretendía, en base al entendimiento del “contexto” en las búsquedas, cualificar la experiencia de los usuarios.  

Pero, antes de continuar, debemos tenemos que tener claro, que la tan anhelada visibilidad pertenece o se circunscriben dentro del posicionamiento en buscadores y que este, como todos sabemos, se puede trabajar de diferentes ópticas: 

Como sabéis, al realizar cualquier tipo de búsqueda, dentro de las SERP (Search Engine Results Page) hay dos tipos de resultados:  

. Orgánicos: resultados mostrados por el buscador, sin necesidad de invertir en la plataforma para obtener resultados en un corto – medio plazo. 

. Pagados: resultados expuestos como anuncios, en donde los anunciantes han invertido diferentes recursos (entre otros, económicos) para potenciar la visibilidad de sus negocios. 

En próximos posts ahondaremos aún más en estos últimos, pero hoy hemos querido enfocarnos en cómo los resultados orgánicos se ven afectados por las actualizaciones que implementa Google. 

En noviembre del año pasado, unas semanas antes del Black Friday y de la época navideña, con la última y tercera actualización del año, muchas webs sufrieron una reevaluación de sus contenidos, y como es lógico, algunas sufrieron caídas por no cumplir con los parámetros establecidos. Google trata de potenciar el contenido de calidad para los usuarios, y mostrar aquel contenido que se ajuste lo máximo posible a las búsquedas realizadas. Esta es la razón principal por lo que es tan importante hacer una revisión de los contenidos que ofrecemos para así ofrecer la máxima calidad a nuestros usuarios.  

Tras esta última reevaluación, muchos de los principales sites sufrieron caídas en su visibilidad; y otros, como los casos de Aliexpress o la Casa del Libro tuvieran por el contrario incrementos en su visibilidad. 

¿Qué más cambios ha ofrecido Google en el último año? 

El año pasado Google anunció más cambios, que continuaban con esta tendencia. Estos cambios se centraron en la experiencia de la página y las reseñas de calidad, Core web vital, un sistema de métricas, indicadores para la experiencia de usuarios y que “se aplican a todas las páginas web, y deben ser medidos por todos los webmaster, y que, desde ahora, aparecerán en todas las herramientas de Google. Cada uno de los Core Web Vitals representa una faceta diferente de la experiencia de usuario, es medible y refleja la experiencia del mundo real de un resultado crítico centrado en el usuario”.  

Una de las principales ventajas que ofrece la extensión es que es gratuita y que ayuda a los desarrolladores a implementar las mejoras necesarias para convertir sus webs en sitios de calidad.  

Los Core Web Vitals se basan en tres indicadores específicos. 

Fuente: Google 

Largest Contentful Paint 

Destinado a medir la velocidad de carga de la página, determinando el momento en el que el contenido principal de la web se ha cargado por completo y, por tanto, es útil para los usuarios (determinándose que la carga debe realizarse entre los 2,5 – 4 segundos) considerando como lento todo lo que supere este tiempo de carga.  

First Input Delay  

Mide el tiempo de carga que transcurre desde la primera interacción del usuario con la web hasta el momento en que el navegador es realmente capaz de responder a esa interacción.  

Google establece que para que se considere una buena experiencia de usuario, el FID debe implementarse entre los primeros 100 – 300 milisegundos, considerando como lento todo resultado superior. 

. La medición y la evaluación de este parámetro solo se va a poder medir entre usuarios reales, es decir, no se podrán establecer simulaciones para probar este tiempo de carga.  

Cumulative Layout Shift  

Esta última métrica es aquella que evalúa la estabilidad visual de las webs. Es decir, analiza todos aquellos cambios de diseño inesperados que pueden confundir al usuario, y así tener una mala experiencia. Un ejemplo claro puede ser el movimiento inesperado de los textos sin que los usuarios hayan podido interactuar con ellos, lo que puede ocurrir cuando los recursos se van cargando de forma irregular). 

Se han establecido herramientas para poder medir el buen hacer de las implementaciones: 

. Herramientas de campo: Estas herramientas recogen la experiencia de los usuarios que interactúan con la web con datos provenientes de usuarios reales. 

. Herramientas de laboratorio: Entornos de prueba, simulando el comportamiento de los usuarios. 

 
Los Core web vitals nos ayudan a evaluar y medir el trabajo que realizamos para aumentar la visibilidad de las webs. Posteriormente al lanzamiento de esta metodología, se han ido publicando actualizaciones del algoritmo que priman la experiencia de los usuarios y la calidad de contenidos que se le ofrecen.  

El futuro mira por la seguridad de los usuarios y nosotros lo hacemos por la de nuestros clientes.  

Si necesitas más información sobre las actualizaciones del mercado, no dudes en ponerte en contacto con nosotros.  

Bibliografía 

Agencia SEO de posicionamiento online | Vandelay.es 

En qué consiste la actualización del algoritmo de Google (junio 2021) (isolated.es) 

Cómo afecta a las reseñas el nuevo algoritmo de Google 2021 (iebschool.com) 

Google lanzará un nuevo algoritmo en junio de 2021 (trecebits.com) 

5 trucos ocultos de Google Search Console (trecebits.com) 

Simplificamos el informe «Experiencia en la página»  |  Blog principal sobre la Búsqueda de Google  |  Google Developers 

Alexa – Top sites 

https://www.flat101.es/blog/seo/core-web-vitals/

Como comentábamos en la anterior publicación, varias son las soluciones que la industria plantea para tratar de mitigar el efecto de la no sincronización de las cookies de third party en los navegadores. En este sentido os habíamos hablado de la primera de ellas, la opción de agrupar a los usuarios en función de su comportamiento en la navegación propuestas por Google o Microsoft entre otros.  

La segunda de las alternativas está basada en el desarrollo de un identificador de información personal (PII) “Personal Information Identifier” 

-Solución de identidad Unified ID 2.0 Propuesta por The Trade Desk en el que, las cookies son sustituidas por direcciones de correo electrónico anónimas que son recopiladas a lo largo del recorrido digital del usuario, ya sea cuando inicia sesión en un sitio web, en una aplicación móvil o de smart TV, de cada correo electrónico se genera un identificador anónimo y cifrado (hash) dando respuesta a tres de las demandas del mercado: anonimización, transparencia y mayor control para los usuarios 

ID+ de Zeotapp basado en 4 principios: Independencia, sencillez, interoperabilidad y cumplimiento normativo. Tanto en la parte de las marcas como en la de los publisher funciona de manera similar a UID2.0 generando un identificador único a partir de las direcciones de correo de los usuarios. El problema al igual que ocurre con The Trade Desk es la necesidad de sincronizarse con el resto de tecnologías, lo que puede suponer un contratiempo para este tipo de soluciones si en la industria no hay consenso. 

RampID de Liveramp, solución determinística que permite a los anunciantes convertir los múltiples identificadores diferentes que los consumidores generan en dispositivos, plataformas de marketing y en sus propios sistemas internos, en una persona real, generando un identificador único que cumple los criterios de privacidad a nivel consumidor. En la parte de los editores funciona de manera similar al resto de opciones, generando el ID a partir del email del usuario posteriormente hasheado. 

Otras soluciones de identificación 

TCPF de IAB Spain propuesta encaminada a impactar al tráfico no autentificado, este sistema basado en el Transparency and Consent Framework (TCF) de IAB EU funciona de la siguiente manera: TCPF utiliza uno de los propósitos incluidos en el CMP para solicitar el consentimiento para la generación de un ID universal, en el momento en que el usuario da su consentimiento, es redirigido a un dominio central en el que se genera el ID depositando una cookie de primera parte en el navegador del usuario y devolviendo al usuario al dominio local donde se ha generado el consentimiento sincronizando con el mismo el ID. Dicho ID estará accesible en el dominio central para aquellos proveedores incluidos en el CMP local. Según la propia IAB Spain se ha creado una solución necesaria puesto que aporta al ecosistema diversas ventajas:  

-Fácil integración 

-Disponibilidad para cualquier actor dentro del ecosistema 

-Da respuesta al tráfico no autentificad 

-Es una iniciativa por y para la industria. 

-Aporta una capa extra de privacidad 

SWAN iniciativa generada por parte de diversas empresas del ecosistema publicitario digital para dar respuesta al tráfico no autentificado y cuyo fundamento pasa por ofrecer un modelo de identificación que no tenga necesidad de los datos personales. Se basa en la generación de un ID anónimo que se “descentraliza” siendo redireccionado entre todos los miembros de la red SWAN. Como principales ventajas de este sistema encontramos:  

-Mejor experiencia de usuario pues reduce las solicitudes de consentimiento repetidas, accediendo al contenido de inmediato. 

-SWAN permite un registro de auditoría transparente de las empresas que procesan los datos de las personas, así como la posibilidad de bloquear anuncios molestos y denunciar a los infractores. 

-Resguarda la intimidad, disponiendo de identificadores seudónimos y respaldando los términos que todos los participantes en la red deben aceptar.  

-Los participantes en la red se “agrupan” para competir contra los Walled Gardens a su vez es un sistema verdaderamente descentralizado en el que todos los participantes son iguales. 

ID5 se trata de una solución que resuelve la complejidad de la identificación en la publicidad digital al ofrecer capacidades de medición y reconocimiento de usuarios que priorizan la privacidad. El ID5 permite a los editores y anunciantes crear y distribuir un identificador propio compartido a todo el ecosistema. El ID está encriptado para que las plataformas tecnológicas puedan pasarlo o conectarse con ID5 para descifrarlo y usarlo para ofertar, mejorar la entrega de campañas y medir el desempeño o agregar datos y construir segmentos. ID5 vincula las ID’s de usuario entre dominios utilizando métodos deterministas cuando los sitios web pueden proporcionar «señales duras», como direcciones de correo electrónico con hash o ID’s de inicio de sesión/SSO. Cuando estas señales no están disponibles, ID5 procesa las “señales suaves” proporcionadas por el sitio web (como los datos disponibles en las solicitudes HTTP) utilizando un algoritmo probabilístico que señala las posibilidades de que a un usuario ya se le haya atribuido un valor de ID universal. 

Como veis hay donde elegir, pero además no son las únicas soluciones propuestas por el mercado, en este sentido, Panorama id de Lotame (solución global de identificación basada en personas) o las soluciones de inicio de sesión único propuestas por otros actores del mercado (Verini, Netid, Nononio o Media Pass) ponen de manifiesto como la industria no termina de ponerse de acuerdo en la unificación de un modelo que permita adaptar y trabajar a todos los actores implicados bajo el mismo identificador único.  

Por otra parte, los grandes dominadores de este ecosistema, los denominados Walled Garden (FB, Google, Amazon…) tampoco están muy interesados en facilitar las cosas a la industria, sobre todo cuando ellos tienen asegurado el tráfico autentificado y las posibilidades de targetización intactas

Queda mucho camino por recorrer en este 2022 antes de que la moratoria dada por Google a la sincronización de las third party cookies se cumpla y con ello veremos si finalmente se produce la alianza de intereses, en principio necesaria, entre las diferentes partes para tratar de llevar a buen puerto este tema.  

Mientras tanto, ¿vosotros cómo estáis afrontando este difícil reto…? Nosotros en Grupo Ideonomía estamos muy pendientes de los movimientos de nuestros socios tecnológicos y en este sentido vemos complacidos como uno de ellos, Adform ha dado importantes pasos para resolver este problema creando ID FUSIÓN un sistema generado para proporcionar un servicio de traducción entre todos los tipos de identificadores y unificarlos. Esto se hace siendo completamente independiente de cualquier identificador, ya que Adform otorga a los anunciantes, agencias y editores la capacidad de elegir qué datos usan, sin las restricciones de los problemas de compatibilidad que afectan a la industria en general y las soluciones limitadas de la competencia

Este sistema, probado en diferentes campañas durante el pasado año, ha obtenido hasta el momento resultados más que satisfactorios, lo cual nos hace estar tranquilos y mirar con optimismo el futuro, con la certeza de poder ofrecer a nuestros clientes un escenario solvente para la activación de sus campañas.  

Hace cerca de un año publicamos en este mismo blog, un post sobre la desaparición de las cookies de terceros en 2022, a raíz del comunicado lanzado por Google en ese momento, en el que ponía en conocimiento de la industria que no iba a permitir la sincronización de este tipo de cookies en su navegador, y las consecuencias que esto tendría para el mundo publicitario, teniendo en cuenta que las third party cookies son creadas por empresas diferentes del sitio web en el que el usuario entra a navegar, entre ellas, las mismas empresas de publicidad.  

Las cookies de terceros, como ya sabéis, permiten a los anunciantes ofrecer anuncios relevantes en función de los diferentes intereses de los usuarios, es decir, este tipo de “códigos” en principio y en un “entorno ideal” están enfocados a que los usuarios disfruten de una mejor experiencia de navegación ofreciendo en ella, productos relacionados con sus intereses. Por otro lado, es obvio que estos anuncios sirven también, para financiar el contenido que el usuario consume.  

Como os decía en aquella publicación hablábamos de las diferentes alternativas que la industria estaba poniendo encima de la mesa para tratar de solventar esta pérdida de información, con el horizonte puesto en 2022, momento en el que entraría en vigor la decisión de Google de no permitir la sincronización de este tipo de cookies, en su navegador. 

Pasado un año y con la moratoria que Google ha dado hasta 2023, fundamentalmente por el retraso en la puesta en marcha y pruebas de su sistema de Cohortes “FloC”, la idea de este post es, hacer una actualización de las diferentes opciones que baraja la industria y sus principales actores frente a esta eventualidad. 

Como la mayoría de los que nos encontramos en esta industria, sabemos que, en la batalla por la identificación del tráfico, las cookies de primera parte se han convertido en las verdaderas protagonistas de la fiesta y que solo los sitios que posean un tráfico los suficientemente importante, van a poder seguir construyendo sus propias audiencias, siempre y cuando este tráfico no suponga en cuanto a alcance, un obstáculo insalvable. 

El problema es que, los sitios web que pueden disponer de sus propias audiencias son relativamente pocos, por lo que la industria se ha visto abocada a dar diversos pasos con el objetivo de encontrar alternativas que puedan sortear el próximo escenario cookieless con garantías, planteando hasta el momento diversas soluciones apostado por diferentes planteamientos:  

Soluciones basadas en la agrupación por categorías, tomadas por algunos de los gigantes tecnológicos, como Google o Microsoft 

Google, en su intento de seguir controlando el ecosistema publicitario una vez desaparecidas las cookies de tercera parte, apuesta por un sistema llamado Privacy Sandbox.  Esta solución basada en “cohortes” y compuesta por diferentes APIs tiene como principales propuestas:  

“FloC” que como ya comentamos en su momento, usa un algoritmo que se ejecuta en el navegador del usuario y analiza los hábitos y preferencias de los mismos a nivel individual según los sitios web que ha visitado. En base a estos comportamientos, los usuarios son asignados a un grupo o segmento para que los anunciantes puedan impactar a esa cohorte con anuncios específicos a sus intereses. 

“Fledge” desarrollada para poder poner en marcha la parte de Remarketing, de tal manera que cuando un usuario visita la página de un sitio en la que desea anunciar sus productos o servicios, el sitio (anunciante) puede solicitar al navegador del usuario que lo asocie con grupos de interés específicos durante un periodo de tiempo determinado (por ejemplo, 30 días). FLEDGE satisface los casos de uso de remarketing, pero está diseñada para que no pueda utilizarse por terceros para rastrear el comportamiento de navegación de los usuarios. La API permite que el navegador realice «subastas» en el dispositivo para elegir los anuncios relevantes proporcionados por los sitios web que el usuario haya visitado anteriormente. 

Microsoft por su parte utiliza un concepto similar para la agrupación de los usuarios en función de sus intereses, con la diferencia de que el algoritmo en lugar de ejecutarse sobre el navegador, lo hace sobre un servidor proxy que se interpone entre el usuario y la empresa publicitaria, este sistema denominado Parakeet es capaz de enmascarar los datos privados reales del usuario a partir de la generación de ruido estadístico que permite anonimizar datos como:  

El editor que solicita el anuncio 

El lugar geográfico desde el que usuario solicita el contenido La IP del usuario que hace la solicitud y algunas más que tienen como objetivo de proteger la privacidad del individuo. 

Si estáis interesados en seguir profundizando, en como la industria está buscando soluciones cookieless, no os perdáis el próximo post en el que haremos un recorrido por el resto de alternativas propuestas hasta el momento.  

Biblografïa: 

https://developer.chrome.com/es/docs/privacy-sandbox/overview/
https://weborama.com/es/goldenfish-es/

Este pasado año 2021 ha sido notorio para todos nosotros por muchas razones, entre otras, por la aparición estelar de un nuevo término tecnológico, los NFT.  

El NFT, traducido al inglés, “Non Fungible Token”, hace referencia a un identificador único digital, catalogado en cadena de bloques y utilizado para registrar la propiedad de un archivo. Esto, quizá te suene a chino, pero dicha cadena de bloques se refiere a la Blockchain, la cual hemos tratado previamente en este blog.  

(Por si te interesa, te lo dejo por aquí para que puedas informarte antes de entrar en materia con los NFT. https://www.grupoideonomia.com/blockchain-aplicado-al-marketing/ 

Volviendo al tema en cuestión, la Blockchain permite la trasferencia de información o de archivos, de tal forma que nadie pueda modificarla gracias a sus parámetros criptográficos, de ahí su relación con las criptomonedas.  

Pues bien, esta tecnología es subyacente tanto a NFT como criptomonedas, y, sin embargo, son conceptos contrarios. Te lo explico a continuación.  

El NFT no puede ser intercambiado por otro, pues se trata de una propiedad única, es un bien no fungible. En contraposición, la criptomoneda, al igual que los euros, puede ser intercambiada por otra o por varias, ya que no posee unicidad, es decir, son divisibles.  

Como venía comentando, la Blockchain aporta a los NFT la capacidad de ser únicos e inmodificables, por lo que solo puede existir uno en toda la red. Para que se entienda mejor es útil compararlo con una obra de arte, por ejemplo, El Guernica de Picasso es único y sabemos que está situado en el Museo Reina Sofía. Al igual que ocurre con las obras de arte, con los NFT también existe la posibilidad de hacer copias, pero todo el mundo sabrá que es una copia gracias a la transparencia e inmutabilidad de la Blockchain, por lo que podríamos afirmar que, los NFT son “obras de arte” digitales.   

Aunque hemos hecho hincapié en su parecido a las obras de arte, los NFT pueden ser cualquier cosa que puedas imaginar; una foto, un meme, un artículo dentro de un videojuego o un tweet. Sí, un tweet. En 2021 el primer tweet creado en la plataforma se vendió por valor de 3 millones de dólares.   

Interfaz de usuario gráfica, Texto, Aplicación

Descripción generada automáticamente

Si bien te pueden parecer extrañas o puntuales este tipo de transacciones multimillonarias, son más comunes de lo que piensas. En 2021 el interés por los NFT ha sido incontrolable, lo que ha dado lugar a operaciones desorbitadas:  

Documento confidencial de la NASA: 5,27 millones de dólares.  

Código original de la World Wide Web: 5,4 millones de dólares.  

Dibujo en bits o “CryptoPunks”: 5,3 millones de dólares.   

Ahora que comprendemos el significado y el uso que se le da a los NFT, os traslado la siguiente pregunta: ¿De qué manera se puede aplicar este activo digital a los negocios?   

Los NFT se han convertido en un atractivo para las marcas a la hora de planificar su estrategia de Branded Content, ya que abren la posibilidad de comunicarse con el usuario y generar interacción con el mismo. Crea experiencias, aumenta el reconocimiento de marca y dota de interés los productos y servicios de la compañía. 

En la actualidad, existen diversas empresas que trabajan con los NFT como vía de comunicación con sus usuarios. Es el ejemplo de Pizza Hut o McDonald’s, que han creado NFT de sus productos como coleccionables para fomentar su relación con los usuarios.   

Otro caso muy interesante es el de la cadena de cines AMC, quien, en colaboración con Sony Pictures, regaló 86.000 NFT´s con la imagen de Spiderman para promocionar el estreno de su nueva película.   

El CEO de AMC Entertainment (NYSE: AMC) rechaza la idea de dividendos  basados ​​en NFT para siempre - ES Atsit

Viendo el éxito de esta estrategia, AMC Entertainment Holdings anunció en diciembre de 2021 la llegada de un nuevo NFT solo disponible para inversores. 

En nuestro país el caso más conocido es el de Correos, quien ha lanzado mediante la tecnología Blockchain sus “Criptosellos”, con la intención de que tengan la misma utilidad que los sellos convencionales. La innovación de las empresas otorga un valor al usuario que puede influir en la relación con el mismo y en la imagen de marca que perciben sus clientes. 

Los usuarios demandan a diario experiencias por parte de las empresas. La atracción de estos activos digitales en cientos de miles de personas dota de un gran potencial para las marcas en su estrategia de contenidos y, además, le permite testar nuevos modelos de generación de ingresos y de relación con los consumidores.   

En definitiva y tras todo lo anteriormente expuesto, desde Grupo Ideonomía pensamos que no existen garantías de que los NFTs puedan suponer una revolución en los negocios, pero lo que sí es cierto, es que, por el momento, todo apunta a que han llegado para quedarse.  

La transformación digital se puede definir como la integración de las nuevas tecnologías en todas las áreas de una empresa para cambiar su forma de funcionar. El objetivo es optimizar los procesos, mejorar su competitividad y ofrecer un nuevo valor añadido a sus clientes. 

Desde hace unos años, la mayoría de las compañías no dejan de comentar como eje principal de sus activos la tan manida transformación digital de sus organizaciones. 

¿Cuál es la verdad de todo esto? Según nuestra experiencia con clientes/compañías de todo tipo, no es cierto. No hay una estrategia clara y definida en la mayoría de las ocasiones y siguen inmersos en cambios parciales o parches que nada tiene que ver con la transformación digital. 

¿Por qué ocurre esto? Miedo al cambio, falta de conocimiento, miedo a la tecnología, falta de visión transversal que, con la digitalización, te permita mayor conocimiento del cliente, mejoras en la comunicación, eficiencia en costes, etc. 

Entendemos que a muchas compañías les cueste hacer el cambio, sobre todo a las más grandes, pero es inevitable hacerlo si no quieres perder cuota de mercado e interés por parte del consumidor/cliente.  

Estos cambios, normalmente, suelen ser culturales, por tanto, muchas de las personas de la compañía no están preparados para asumirlo ni para salir de su zona de confort, con lo cual buscan excusas de todo tipo para comenzar a dar el paso. Este problema conlleva la necesidad de hacer sustituciones de cargos/personas que permitan que dichos cambios se hagan con la mayor rapidez. 

La solución típica al problema, el parche que casi todas las empresas llevan a cabo es crear una división digital con la que comience la transformación. Dicha división digital tiene como principal ítem crear una página web y a través de ella generar el mayor número de ventas, replicando esto mismo al entorno móvil. 

Esta división o equipo permanece aislada del resto de la organización, como un ente encapsulado, donde nadie del resto de la compañía entiende ni sabe lo que hace. 

Este equipo no tiene información sobre la comunicación corporativa, ni la comercial, ni el CRM ni tampoco del Call o Contact Center, si acaso lo tuvieran contratado. Transformar la cultura de una empresa para que ésta sea más digital es una tarea muy complicada. Sin conocimiento previo, es difícil tener un pensamiento integrador que dé respuesta a todos los cambios que hay que realizar. 

Esta realidad, guardando las distancias, es algo similar a lo que ocurrió hace más de 30 años con la incorporación del ordenador en las empresas. Ese momento también fue un cambio de paradigma, una manera completamente distinta de hacer las cosas, de compilar la información de una manera determinada, de recuperarla rápidamente, de ser más eficientes con el trabajo realizado y de tener más control sobre lo que se hacía.  

¡¡Y qué decir de la llegada de internet y con ello de la incorporación y uso del correo electrónico!! Todavía recuerdo a más de una secretaria imprimiendo los correos para que los leyera el jefe porque no sabía ni como entrar en el correo… Lo dicho, cambio de paradigma y de personas que puedan empujar dicho cambio. 

Mientras tanto, Grupo Ideonomía seguirá ayudando a entender, incorporar y formar a toda aquella empresa que lo necesite con la finalidad de hacer su travesía al cambio de una manera más sencilla. 

No hay mayor inspiración para los temas que tratamos en el post que la propia experiencia que vivimos semana a semana con cada uno de nuestros clientes y las casuísticas que presentan.  

Nos hemos encontrado en más de una ocasión con que los anunciantes llevan a cabo procesos “porque sí”, “porque se tienen que hacer”, pero sin un motivo o fin a largo plazo, incurriendo de esta forma en una ejecución procesos de trabajo en vano.  

Siguiendo con el hilo de lo que comentábamos en el post anterior, el primer paso para no caer en este tipo de errores es tener clara la estrategia, aquella en la que se enmarcan cada uno de los procesos posteriores que nos van a permitir llevarla a cabo para acometer los objetivos que se tienen. Para ponernos un poco más en situación y que esto no sea un viaje por las ideas, me voy a centrar en uno de los activos principales para los anunciantes: su base de datos.  

Partamos de la realidad del mercado, y es que no hay diez anunciantes, ni cien, hay muchísimos más en cada uno de los sectores con los que competir y para cuya lucha hay que estar preparados. 

En varias ocasiones, nos hemos encontrado con amplias bases de datos carentes de valor, pues los usuarios recogidos en ellas están como llamamos, “dormidos”. Lo primero es el planteamiento ¿por qué debo crear una base de datos? ¿en base a qué criterios? Y si ya la tengo creada ¿he hecho bien mi trabajo?¿para qué la voy a utilizar? ¿qué le puedo ofrecer a mis usuarios que les merezca la pena para proporcionarme sus datos? Y por último ¿qué quiero conseguir de ellos?  

No es tarea sencilla la de crear una base de datos fuerte pues se requiere de mucho tiempo, dedicación y mimo. No se puede conseguir una base de datos amplia y con sentido si no se tienen claros los criterios, hay que encontrar el equilibrio entre la cantidad y la calidad.  

Si nos fijásemos en lo más simple y llano, podríamos establecer 3 factores a cumplir (partiendo del supuesto en el que ya tenemos una base de datos creada): fidelización, captación y explotación.  

Fidelización: Ya tengo a mis usuarios ¿y ahora qué?¿qué voy a hacer con ellos?¿los dejo dormir? Conocer a mis propios usuarios a fondo y clasificarlos en base a sus comportamientos nos va a permitir no solo enviar comunicaciones cada vez más personalizadas para perseguir el objetivo final, sino también para poder proyectar en ellos la búsqueda y captación de usuarios similares en cuanto a conductas, características y comportamientos. Mantener activos a los usuarios de nuestra base de datos y conseguir fidelizarles en base a lo que les ofrecemos será la clave para que la rueda siga funcionando. Si un engranaje falla, todo se para. La relación anunciante/usuario debe ser una relación win-win, donde el anunciante tenga cada vez más información de los usuarios y éstos a su vez, estímulos suficientes como para confiar y apostar por lo que se le ofrece.  

Captación: A la pregunta ¿tengo una base de datos suficiente? No, nunca es suficiente si tenemos un objetivo ambicioso que debemos conseguir. Así como tenemos que enfocarnos en la fidelización de los usuarios que ya tenemos, en paralelo se debe realizar el trabajo de seguir captando usuarios sin caer en la captación de adeptos “interesados o fugaces” que van a ofrecer sus datos al mejor postor. Hay que tener en cuenta que los usuarios son cada vez más exigentes y más recelosos de su privacidad, por lo que se hace cada vez más difícil ofrecerle valor a largo plazo. Por esto ¿Qué les voy a ofrecer? ¿Qué tengo de valor como anunciante que sea susceptible de interés para mis usuarios? 

Explotación: Por último, el paso al que todo anunciante quiere llegar sin tener claro si ha ejecutado los dos anteriores con rigurosidad y criterio, la explotación de la base de datos. Bien sea para ofrecerle mis productos y servicios a los usuarios o para la monetización de la misma en beneficio de la compañía, ¿tiene el valor suficiente mi base de datos como para poder ofrecerla en el mercado? Siempre vamos a hacernos preguntas para las cuales habrá diversas y múltiples respuestas. La correcta nos vendrá dada si el resto de procesos están, como decía al principio, enmarcada en la estrategia. 

Por añadir más variables a los procesos de trabajo que debemos realizar en nuestras labores como profesionales del marketing, uno de los procesos que he citado justo antes es el de la búsqueda de nuevos usuarios en base a quienes ya se conoce en profundidad.  

Algo importante a tener en cuenta es que, además de ser importante tener una base de datos amplia y de calidad, es primordial tener recogidas audiencias propias, es decir, usuarios que aún no conozco en profundidad pero que tengo en mi radar.  

Con el futuro cercano y temido del que se ha hablado hasta la saciedad y que se ha ido retrasando, la desaparición de las cookies de terceros, se hace indispensable tener como anunciante el mayor volúmen posible de audiencias propias. Sí, aquí prevalece la cantidad pero sin perder el ojo en la calidad.  

Gracias a herramientas como el DMP, tener recogidas estas audiencias es posible, pero además pudiendo categorizarlas y denominarlas en base a los criterios previamente establecidos para su posterior activación y eficiencia en las comunicaciones que les enviemos. 

Hemos ido desde dentro hacia fuera poco a poco, desde nuestra base de datos propia de usuarios, hacia el reclutamiento y recogida de posibles adeptos, organizándolos y ubicándolos estratégicamente.  

Se trata de procesos que tienen que tener su validez a largo plazo, haciendo uso de herramientas que permitan realizarlos con rapidez y además medir el impacto de las acciones que se llevan a cabo. El conocimiento adquirido sobre los datos que gestionemos de los usuarios van a permitir que los movimientos sean precisos y de calidad.  

Para no perdernos en el camino, debemos no solo tener las bases conceptuales arraigadas, sino además perseguir un objetivo principal del que dependerán todas las acciones a llevar a cabo. Desde Grupo Ideonomía llevamos de la mano a nuestros clientes en este proceso con la pretensión de hacerles crecer tanto como sea posible y cómo no, crecer juntos en todos los sentidos. 

En los últimos días hemos vivido en nuestras propias carnes varios hechos que nos han vuelto a reafirmar, que todavía aún existe un amplio recorrido de mejora en algunas estrategias de digitalización. Por poneros en situación, debido a un fantástico proyecto que ha caído en nuestras manos, hemos llegado a detectar algunos errores no muy banales en varias empresas de las que nos resultaba extraño imaginarlo debido a la envergadura y posicionamiento del que disponen dentro de mercados para nada irrelevantes.  

¿Cómo puede estar ocurriendo que líderes de un sector puedan desprender esta sensación de mala ejecución del plan o incluso una ausencia de plan en algunas ocasiones? Lamentablemente la respuesta a esta pregunta bajo nuestra experiencia, es que, ocurre con más frecuencia de la que podemos pensar. 

Para los que no conocéis el alcance de los servicios que ofrecemos en Grupo Ideonomía, deciros que, no solo somos una agencia de medios, sino que nuestro origen se remonta a la realización de proyectos de consultoría para tratar de apoyar a las empresas en su estrategia digital desde todos los ámbitos. 

A mí personalmente me gusta utilizar el símil de Chicote y su puesta a punto de los restaurantes que visita, arremangándose y realizando un trabajo de campo para tratar de detectar los puntos de mejora para luego darles una solución y ejecutarla, por muy grande que sea la transformación que implique. Este mismo fin es el trabajo que buscamos realizar dentro de nuestro ámbito y es que, ante cada nuevo proyecto, el equipo trata de desgranar y evaluar con mimo ante qué nos enfrentamos.  

Para este caso en concreto que os veníamos comentando en el inicio, fuimos testando uno por uno tanto a los actores relevantes del sector, como por supuesto a los no tan relevantes, pero que estaban empezando a despertar la atención de los consumidores. Porque, ojo, ¿Qué ocurre si de repente entrara alguien en el juego que haya visto una oportunidad? Un nuevo actor emergente que ya tenga en su ADN cómo se deben hacer las cosas en cuanto al canal digital se refiere, que tenga toda la información de cómo se comportan los clientes, y que además posea una estructura más ligera y una cultura nativa digital. Este podría llegar a lograr un modelo disruptivo que arrastre a los consumidores y dinamice el modelo de negocio tradicional hasta ahora conocido. 

Porque no nos equivoquemos, estas olas de disrupción no son puntuales, pasa en todos los sectores, y para poder mantener la posición es importante tener una mente abierta y observar a estos nuevos actores que entran rompiendo con su forma tan diferente de hacer las cosas. Debemos estar pendientes de esas startups incumbentes que apuestan por los nuevos negocios, porque si se diera el caso de que los clientes de pronto las adopten de manera masiva, esa situación se convierte en el momento de la verdad. Y en ese punto de inflexión, las empresas que hayan apostado por este modelo se quedarán, y las que no han sido capaces de adaptarse (o lo hagan tarde), desaparecerán.  

Cada vez se difuminan más los límites entre los sectores. Cuando una empresa cambia el minset de producto a cliente y tiene un acceso a él a través de todos los datos que puede recopilar, le permite diseñar productos mejores para esos clientes, dándoles acceso a un mercado nuevo, compitiendo en ámbitos donde no pensaban que iban a estar. Por eso es importante estar muy atento, o en su defecto, disponer de alguien que lo esté por ti ante cualquier innovación que esté habiendo y seguirla, ya que esto es una de las cosas que si trabajas en el día a día y a corto plazo no se le presta demasiada atención. 

Volviendo a nuestro diagnóstico inicial sobre este nuevo sector en el que nos teníamos que sumergir, el primer shock fue encontrarnos a compañías que se hacían llamar digitales sin ni si quiera disponer de un canal digital para cerrar la venta. 

Realmente nuestra conclusión es que nos encontrábamos ante un problema general del sector, nada atribuible a un actor en concreto. Esto se debe a uno de los principales motivos por los que los planes de transformación no tienen el resultado esperado: la falta de necesidad de urgencia. 

Hasta ahora el pastel se lo han repartido entre muy pocos y muy tradicionales, no hay necesidad de cambio real. Esta postura puede llevar al error de luchar para continuar siendo relevante ignorando un mundo en el que están ocurriendo cosas, cual baño de realidad de Emma Stone a Michael Keaton en la película Birdman.  

Otro de los problemas detectados ha sido la ceguera por ser digital poniendo de manera genérica más foco en la tecnología como herramienta. En normas generales, podemos decir que la mayoría de este perfil de empresas están poniendo más énfasis en la palabra digital que en la palabra transformación, no siendo capaces de adaptarse o transformarse, replicando los mismos procesos tradicionales en el canal digital. 

Bajo nuestro criterio, para este tipo de investigaciones no solo basta con analizar el proceso de venta digital que recorre el usuario. Existen unas fases críticas de cara al cliente, desde la generación de tráfico hasta la postventa y cumplimiento de la promesa efectuada. Debemos observar, por tanto, todos esos puntos de contacto desde los que el usuario también se informa y decide, por lo que siempre evaluamos en detalle el estado de cada uno de sus medios propios, webs, apps perfiles sociales…Cómo se están utilizando esos espacios en blanco para mostrarse hacia el posible cliente, y si existe en conjunto una estrategia unificada en torno a todos ellos, mejorando la conexión directa con el cliente. 

Imagen: SEO – Fuente: Google imágenes 

Durante este análisis de medios propios es donde se produce el más fiel reflejo del estado interno de la organización, ya que aquí es donde podemos comprobar si todos los departamentos trabajan coordinados y empujando hacía el crecimiento del negocio bajo una misma estrategia o, por el contrario, existen silos que trabajan bajo objetivos departamentales. No concebimos que sea posible realizar una estrategia de contenidos en Youtube sin tener en cuenta una estrategia de posicionamiento, como tampoco concebimos una estrategia SEO que persiga generar tráfico perdiendo la perspectiva de negocio. ¿Hay que estar en todas las RRSS?, ¿hay que hablar en todas ellas en el mismo tono, con la misma frecuencia, del mismo tema…? 

Tras exponer las conclusiones de este tipo de informes a interesados que quieren poner solución a dichos errores, la primera reacción que solemos encontrar es frustración, ya que se suelen topar internamente con estructuras rígidas y direcciones que permiten, pero bajo restricciones. Si por el contrario tienen la buena suerte de encontrarse bajo un liderazgo que realmente quiera realizar esos cambios, y que haya tenido la inteligencia de solicitar ayuda, en un breve periodo de tiempo se pueden trabajar soluciones que aúnen la estrategia de todos estos puntos de contacto. De esta manera, se aprovecharíantodos ellos para la obtención de datos, y estos datos, a su vez, ser utilizados para reducir costes, mejorar la experiencia del usuario y aumentar la proactividad y capacidad de previsión a través de modelos predictivos. 

Para concluir, nos gustaría resaltar el punto más importante que se debe priorizar antes de realizar cualquier cambio: tener clara tu visión y estrategia digital. Después continuaremos con el punto más útil, el de poner el mayor empeño para vencer el obstáculo más difícil que nos podemos encontrar en la fase de implantación: el factor humano. Para evitar la alta resistencia al cambio, se debe trabajar la comunicación y cultura digital tratando en todo momento de incentivar la colaboración y agilizar la toma de decisiones. Como solemos decir en Grupo Ideonomía: “Remar todos en la misma dirección”. 

De todos los aquí presentes, ninguno puede negar que actualmente vivimos en un mundo en el que las redes sociales, de una manera u otra, forman parte de nuestro día a día. Algunos las usamos únicamente para comunicarnos con nuestro círculo más cercano (o no tan cercano), otros para practicar nuestros mejores movimientos de baile y, algún valiente, incluso, las utiliza para intentar encontrar el amor.  

Pero, independientemente del uso que cada uno quiera darle, están ahí y permiten que estemos conectados de manera casi inmediata. Precisamente eso es lo que resume el triunfo de las redes sociales: ofrecer a los usuarios una forma de comunicación a través de espacios virtuales, sin importar en qué lugar del planeta se encuentren, y, en la gran mayoría de los casos, de manera gratuita (o eso pensamos). 

Según datos arrojados a principios de este año por Hootsuite, el número total de usuarios en redes sociales por aquel entonces era de 4.200 millones de personas, lo que supondría una representación del 53,6% sobre el total de la población mundial. Además, si comparamos estos datos con los del mismo periodo del año anterior, se aprecia un incremento del 13,2%, por lo que las cifras nos indican que esta tendencia a corto plazo seguirá creciendo al mismo ritmo o incluso a mayor velocidad de la alcanzada hasta el momento.  

Entre las redes más utilizadasFacebook tiene el pódium del mercado, seguido de las plataformas de Youtube y Whatsapp. Además, la compañía de Mark Zuckerberg también posee otras tres de las redes sociales más grandes, todas con más de mil millones de usuarios activos mensuales. Estas son: el ya mencionado WhatsApp, Facebook Messenger e Instagram. 

Gráfico

Descripción generada automáticamente
Imagen 1: Las redes sociales más populares en todo el mundo a julio de 2021, clasificadas por número de usuarios activos (en millones). Fuente: Statista. 

Pero ¿qué pasaría si un gigante como Facebook se “apaga” durante 6 horas seguidas sin previo aviso? 

Pues justo eso es lo que tuvimos que descubrir el pasado 4 de octubre. A pesar de que esta situación ya se había dado con anterioridad, generalmente había sido en periodos de tiempo más cortos y en una plataforma en concreto (no en las tres a la vez). Además, el motivo reportado en estos casos por parte de la compañía ha sido achacado, citando palabras textuales, a “problemas técnicos”, sin llegar a profundizar mucho más en el tema. En esta ocasión, sin embargo, las razones han salido a la luz.  

Para entender cuál fue la causa de esta caída a nivel mundial, debemos saber que Internet es una gran red de redes que funciona gracias al uso de grandes routers constituidos por enormes listas de posibles rutas para llevar un paquete de datos desde un punto a otro. 

Para que esto funcione, se hace uso de un protocolo, y ahí es donde entran en juego los Border Gateway Protocol o más comúnmente conocidos como BGP’s. Como definición, un BGP es un protocolo que se utiliza para intercambiar información de encaminamiento de diferentes sistemas autónomos (AS) y para facilitar el intercambio de información sobre redes IP.  

Cada uno de estos sistemas autónomos, tendrá conexiones o sesiones internas (iBGP), así como sesiones externas (eBGP), por lo que se considera que, un BGP es un protocolo interdominio (entre sistemas autónomos) e intradominio (dentro del mismo sistema autónomo). 

Todo esto, se sostiene gracias a una sesión de comunicación basada en TCP (Protocolo de control de transmisión o, en inglés, Transmission Control Protocol) que permite que cada uno de los extremos de la comunicación puedan intercambiar adecuadamente la información. 

Es decir, se mantienen sesiones BGP sobre TCP para que pueda llevarse a cabo la comunicación entre los sistemas autónomos. Por otro lado, es importante tener en cuenta que, existe más de una ruta posible entre dos sistemas autónomos y que, por otro lado, es posible tener más de un router de borde (BGP) en el mismo sistema autónomo, tal y como puede observarse en la siguiente imagen: 

Diagrama

Descripción generada automáticamente con confianza baja
Imagen 2: Ejemplo de distintos sistemas autónomos (AS) con distintas redes en cada uno de ellos (N) y sus correspondientes BGP´s.  

Entre todas estas redes de Internet se encuentra Facebook (entendido como sistema autónomo (AS) o red individual), con una serie de normas internas y unificadas de enrutamiento de paquetes. La plataforma, a través del BGP anunciaba sus rutas y las hacía accesibles, sin embargo, en un momento dado, Facebook dejó de anunciar estas rutas prefijadas, en concreto aquellas que encaminaban a su dominio (DNS o Domain Name System) y ahí empezó el caos. Al dejar de anunciar el prefijo de enrutamiento de sus DNS, los servicios de resolución de DNS (aquellos que permiten navegar por Internet utilizando nombres de dominio en lugar de direcciones numéricas) no tuvieron forma de conectar a sus servidores de nombres. 

Entre las grandes consecuencias de este error podemos destacar: 

– La huida de los usuarios a otras plataformas como Twitter o Telegram, lo que demostró que, aunque parezca que el mercado de las redes sociales está monopolizado, también existen otras alternativas que dan el mismo servicio. Incluso Facebook fue el primero que hizo uso de Twitter para comunicar a sus usuarios que estaban tratando de resolver el problema.  

Imagen 3: Comunicado de Facebook a través de la plataforma de Twitter. Fuente: Twitter.  

– El hecho de que las tres grandes redes sociales (Facebook, Whatsapp e Instagram) pertenezcan a la misma compañía, hizo que todo estuviera unido y cayeran simultáneamente provocando una gran frustración entre los de millones de usuarios de sus plataformas.  

– En el mundo del marketing y la publicidad, tampoco dejó indiferente a nadie: campañas pausadas con inversiones ya realizadas y planificaciones temporales específicas. Los anunciantes dejaron de aparecer durante las seis horas que Facebook no estuvo disponible. 

– En la bolsa de valores, Facebook vio una caída de casi el 5% en el valor de sus acciones. 

– Para más inri, durante la caída de Facebook, el dominio «Facebook.com» apareció a la venta en la herramienta Domain Tools, lo que hizo pensar a gran parte de los usuarios que se trataba de un hackeo, algo que posteriormente fue desmentido por la compañía.  

Escándalo social agravado por la previa controversia generada por unos archivos internos filtrados a la prensa de EE.UU. por una exempleada, cuyo contenido agravó más el revuelo público generado por la caída.  

La conclusión a la que se ha llegado una semana más tarde del suceso, es que el cambio “defectuoso” en la configuración de los routers que coordinan el tráfico entre los centros de datos de la compañía, según los expertos, podría atribuirse a un error humano. La teoría es que una persona interna de la compañía, borró accidentalmente la información de los servidores, lo que provocó la desaparición de los servicios de Facebook en Internet como si nunca hubiesen existido.  

A pesar de que no lo hayan confirmado de manera oficial desde la empresa, aparentemente, estos sistemas son muy fuertes, pero hasta el líder del mercado de las redes sociales puede cometer el más “mínimo” fallo y perder en un solo día alrededor de 6.000 millones de dólares.  

Lo anteriormente mencionado, es algo que se puede extrapolar a cualquier ámbito laboral, en el que un error puede generar pérdidas de miles y miles de euros, por lo que es importante que todos los miembros del equipo sean precisos en su trabajo y conscientes de que los datos y los números pueden ser infinitos, pero los errores en este tipo de entornos, por desgracia, no lo son.  

Fuentes utilizadas:

https://www.lavanguardia.com/vida/junior-report/20200702/482045667909/mundo-redes-sociales.html

https://www.statista.com/statistics/272014/global-social-networks-ranked-by-number-of-users/

https://www.xataka.com/servicios/que-protocolo-bgp-que-provoco-que-whatsapp-facebook-e-instagram-desaparecieran-internet-durante-horas

https://www.lasprovincias.es/tecnologia/internet/dominio-facebookcom-venta-20211004220139-nt.html?ref=https%3A%2F%2Fwww.lasprovincias.es%2Ftecnologia%2Finternet%2Fdominio-facebookcom-venta-20211004220139-nt.html  

https://www.elmundo.es/tecnologia/2021/10/04/615b2224fdddff5b448b4570.html

https://www.elcomercio.es/tecnologia/caida-facebook-whatsapp-instagram-fallo-humano-20211005211003-nt.html?ref=https%3A%2F%2Fwww.elcomercio.es%2Ftecnologia%2Fcaida-facebook-whatsapp-instagram-fallo-humano-20211005211003-nt.html  

En los últimos años, la tendencia del marketing de influencers se ha ido consolidando como una de las tácticas más utilizadas para potenciar colaboraciones entre marcas y empresas mediante figuras de gran “influencia” (perdón por la reiteración) y visibilidad en Internet, principalmente en las redes sociales, y cuyo auge las ha impulsado al podio de los medios con más potencial para alcanzar usuarios a gran escala.  

Anteriormente ya os hablamos de la capacidad de estos ‘influencers’ a la hora de convertirse en grandes referentes para multitud de consumidores en redes, generando un enorme volumen de suscriptores en plataformas como TikTok, Instagram, Twitch o Youtube. Esta reciente inclinación ha propiciado la creación de más campañas en redes enfocadas a fomentar la conversación social, promocionar un producto o mejorar la reputación de una marca.  

Según un reciente estudio elaborado por Infoadex, el marketing de influencers generó más de 75 millones de euros en el año 2020, solo en España (un 22,3% más que en el periodo anterior). A su vez, los pronósticos futuros respecto a la inversión dentro de este sector estiman que se alcanzarán los 240 millones de euros para 2024. Este aumento de campañas promocionadas a través de celebridades viene amparado por un estudio de Nielsen Media, el cual estipula que son cuatro veces más recordadas por la audiencia, consiguiendo aumentar la consideración de compra de los usuarios hasta 17 puntos por encima en comparación con clientes no expuestos a las mismas. 

Actualmente disponemos de herramientas de análisis ya probadas que nos ayudan en la medición y optimización de campañas, sin embargo, nos encontramos ante un nuevo mercado en el que se necesitan variables adaptadas a los requisitos que este tipo de promociones demandan, con el fin de sacarles el mayor provecho y rentabilidad posible. Esta creciente influencia en el sector (perdón de nuevo), implica el desarrollo de un plan estratégico notable abordando cada decisión del proceso (qué tipo de influencer se adecua más a los contenidos promocionados, objetivos a marcar, o la plataforma idónea) de una forma certera y justificada. Afortunadamente, esta necesidad ya ha sido respondida por la misma Nielsen.  

Imagen: Influencers de moda en España – Fuente: Metricool 

La empresa de investigación de audiencias presenta Influence Scope, la llamada “solución para la medición de las acciones de marketing de influencia que ofrece una visión global desde una única plataforma”. Gracias a una base de datos formada por más de 96 millones de influencers que cubren las diferentes redes sociales (bloggers, gamers, microinfluencers…), Influence Scope desembarca como una herramienta tecnológica de mejora de las distintas acciones que componen el marketing de influencia durante todo el ciclo de vida de una campaña, ofreciendo datos constantes para conseguir un retorno de la inversión óptimo.  

Esta novedosa herramienta goza de un modelo de puntuación basado en los ‘cuatro elementos clave’ para el marketing de influencia, contando con una amplia cobertura en la medición de plataformas y páginas web. Además, la herramienta ya se ha testado en otros mercados internacionales a través de cuentas como Coca-Cola, Calvin Klein o Mercedes Benz. Estos cuatro factores que se deberían tener en consideración a la hora de abordar una campaña exitosa y así obtener un ROI favorable son: 

– Definición de un presupuesto fijo desde la activación de campaña. 

– Regir la creación de contenidos, elaboración de ideas y ejecución de estrategias en base a los insights que aporta el mercado.  

– Desarrollo de campañas que obtengan un ROI medible en tiempo real para cada acción. 

– Facilitar el proceso de visualización, medición y recopilación de las acciones ejercidas a través de una única plataforma, con información y cobertura real y actualizada. 

De esta forma, Influence Scope llega en un momento de máximo apogeo para el marketing de influencia en España, cuya implantación y consumo se ve patente en plataformas como Twitch o TikTok. Pero esto es solo la punta del iceberg ya que, en un comunicado realizado para marketingdirecto, la directora de Nielsen Media para España y Portugal, Maira Barcellos, asegura que “esta revolución en el marketing de influencers se está implementando en más países, suponiendo un recurso potencial y necesario de análisis real para un medio tan complejo como es el Social Media”. Además, la herramienta facilita la ayuda de un soporte especializado en proyectos de esta envergadura para personalizar las estrategias y acciones de las marcas y agencias que lo requieran.  

Aún es pronto para conocer la evolución que tendrá esta nueva aplicación, así como su utilidad y desempeño en el sector del análisis digital. Con la ‘escueta’ información de la que disponemos, es difícil saber si dejará huella en el mercado o no. Sin embargo, su inclusión abre las puertas a una serie de preguntas recomendadas de hacerse: ¿Realmente es necesario una nueva herramienta para la medición de campañas de influencers? ¿De verdad nos encontramos ante un ámbito tan complejo que ni si quiera las analíticas actuales son capaces de abarcar? 

El dominio de los ‘influencers’ en el sector publicitario está en ascensión, eso es un hecho. Más remarcado incluso, tras conocer que la Comisión Nacional de los Mercados y de la Competencia (CNMC) ha propuesto incluir a estos prescriptores en la Ley General de Comunicación Audiovisual, con el fin de regular una actividad de cada vez mayor importancia e inversión en comunicación. Esta propuesta de anteproyecto da prioridad a la identificación de ‘acciones comerciales’ en todos los contenidos publicitarios que se difundan, además de contemplar la obligación por parte de las plataformas de implementar sistemas de verificación de edad respecto a los contenidos ofrecidos (un adelanto que ya están cumpliendo plataformas como Instagram). 

Por otro lado, ya existen herramientas que aportan datos de gran valor para el desarrollo de campañas con estas características: HeepsyBrandwatch, o Fake follower check, son aplicaciones que facilitan las decisiones en el desarrollo estratégico de influencers, desde la verificación de la cuenta escogida, hasta búsquedas por contenidos y audiencia de cada prescriptor. Influence Scope (según su carta de presentación), ofrece una visión más global desde una única plataforma, abarcando la medición general de la campaña en sí y no solo centrándose en lo que podrían considerarse ‘pasos estratégicos previos’.  

Esta “visión global” deberá abordar aquellos factores clave que permitan realizar una medición efectiva, como la interacción o engagement de los seguidores, elemento crucial para conocer el verdadero potencial de un prescriptor. Ahora bien, ¿no hemos mencionado ya plataformas que se encargan precisamente de esto? A niveles técnicos específicos que se diferencien del resto, Influence Scope se queda un poco coja si nos centramos en las acciones analíticas generales. Quedará saber (esperemos que próximamente y con más detalle), qué puede aportar la herramienta en un mercado con cada vez mayores ofertas.  
 

Se abre así un nuevo portal de medición en el juego del marketing. Las marcas disponen de otra oportunidad para potenciar la captación de sus usuarios, aportando valor a través de las estrategias más adecuadas para plataformas de notoriedad creciente, y con unos nuevos agentes que, prejuicios aparte, están campando a sus anchas en esta era de digitalización del entorno, ¿Cuántas hectáreas serán capaces de cubrir? Ahora tenemos otra herramienta para saberlo.  

Fuentes utilizadas: