Paul Westcott, vicepresidente de datos de L2, explica por qué la calidad de los datos lo es todo cuando se trata de llegar a los votantes y ganar las elecciones.

    La automatización es la clave para desbloquear una campaña política ganadoraPaul Westcott, vicepresidente de datos en L2, explica cómo el aprendizaje automático y la automatización ayudan a las campañas políticas a crear mensajes políticos que resuenan entre los electores.

    Esta es la entrevista final de una serie de cuatro videos con Paul Westcott, vicepresidente de datos de L2. Los otros videos se pueden encontrar aquí:

    La política siempre ha sido un juego de datos. Volviendo a los días de la publicidad directa, Carl Rove dominó estas estrategias. A medida que nos adentrábamos en el siglo XXI, por supuesto, la transformación digital golpeó duramente a la política. En 2008, los medios sociales fueron la tecnología que los definió. En 2012 y 2019, los datos fueron la tecnología definitoria, pero ha habido una narrativa de que los datos fallaron en 2019. También hay una contra narrativa de que los datos están impulsando la IA, los bots y otras herramientas que inevitablemente se utilizarán en la mitad de 2019 y se optimizarán más allá.

    Más información sobre Big Data

    ConsejoTecnologico.com se reunió con Paul Westcott, vicepresidente de datos de L2, para discutir qué lecciones podemos sacar de los éxitos y fracasos de 2019 y cómo se están utilizando los grandes datos en la actualidad, sin la narrativa de que los datos han fallado. Abajo hay una transcripción de su entrevista.

    Westcott: Escuchamos mucho de eso después de la campaña y específicamente de lo que pasó con la campaña de Clinton. La gente decía que confiaba en el análisis. Se basaron en estos modelos predictivos y al menos eso es lo que se alimentaba públicamente. Realmente al final del día, sus modelos se veían bien. Sus modelos se armaron de una manera muy sólida y el equipo estaba entre los mejores del país. Lo que falló fue la base, un conjunto de datos deficiente, que se les había proporcionado.

    No mencionaré a quién, pero estos grandes conjuntos de datos que se proporcionan a las campañas lo son en algunos casos, especialmente cuando el equipo tiene un enfoque de tipo analítico o a veces una idea tardía, mientras que las pulgas lo miran y dicen: «Este es el núcleo de lo que estamos alcanzando cuando estamos tratando de obtener nuestra muestra de 600 personas o la muestra de 1.000 personas».

    Por lo tanto, los datos básicos son importantes. Los datos subyacentes son importantes. Eso es realmente lo que falló porque en el archivo nacional de votantes L2, tenemos 185 millones de personas. Algunas de las personas con las que competimos o los partidos políticos o incluso los secretarios de Estado, es decir, los principales proveedores de datos, tienen 200 millones y 220 millones de votantes en sus archivos nacionales. No es que los Secretarios de Estado lo mantengan, pero individualmente suman más de 220 millones de votantes. Y tú dices:»¿Cuál es la diferencia?» Se trata de procesar, limpiar, deduplicar y eliminar los datos de la basura. La calidad de los datos es importante. De modo que los datos básicos subyacentes que fallaron en 2019 para una serie de campañas, que necesita ser reevaluado y cómo lo procesan. Aunque la analítica y el aprendizaje automático son excelentes, si lo estás construyendo sobre un lecho de arena, no se va a mantener en pie.

    Boletín informativo de Big Data Insights

    Domine los fundamentos de la analítica de datos de gran tamaño siguiendo estos consejos de expertos y leyendo los conocimientos sobre las innovaciones de la ciencia de datos. Lunes de entrega

    mismo

    Véase también