EMOLTV

Expertos explican "inexactitud" entre proyecciones y resultados finales de modelos basados en Big Data

El Rechazo triunfó con el 61,86% de las preferencias, colocando en duda los estudios que recogieron datos de búsquedas de Google y redes sociales, empleado por algunas consultoras que daban por ganador al Apruebo.

06 de Septiembre de 2022 | 08:03 | Por Carolina González, Emol.
imagen
Aton
El Servicio Electoral (Servel) entregó este lunes el último boletín de resultados preliminares del Plebiscito constitucional, junto con los datos finales de participación. En esa línea, con el 99,99% de las mesas escrutadas, se pudo concluir que la opción Rechazo ganó con 7.882.958 votos, correspondiente al 61,86% de las preferencias.

Aquellos números mostraron una gran diferencia entre lo que fueron las proyecciones de las diversas encuestas previo a las votaciones de este 4 de septiembre y los resultados finales del Plebiscito de salida. Si bien los estudios de Panel Ciudadano UDD, Pulso Ciudadano, Black&White y Plaza Pública Cadem daban por triunfador al Rechazo, los escrutinios finales estuvieron por encima de las mediciones anticipadas.

Es más, el sondeo más cercano estuvo dado por la encuesta Black&White que daba por ganador al Rechazo con un 58% de las preferencias. Sin embargo, hubo un modelo de estudio matemático que estuvo aún más lejano de lo que fueron las proyecciones de los tradicionales estudios ya mencionados, y se trató del análisis entregado por Espacio Político.

Según el quinto estudio matemático de Espacio Político, concluido el pasado 19 de agosto -y que extrajo datos de los últimos 21 días (500 horas) de interacciones en Internet, con filtros de exclusividad para el Apruebo y el Rechazo, a partir de datos masivos obtenidos de las tendencias de Google y redes sociales- proyectó que la opción Apruebo ganaría con un 55,1% este domingo 4 de septiembre.

Este estudio matemático estuvo basado en la toma de datos de la Big Data, es decir, y de acuerdo con lo explicado a Emol por Óscar Jaramillo, doctor en Ciencias de la Información y profesor de la Escuela de Periodismo de la Universidad Finis Terrae, es un modelo que "saca conclusiones respecto a grandes volúmenes de información".

"Habitualmente lo que es la Big Data, y para lo que se ocupa, es para perfilar a los usuarios, de manera de tomar el historial de navegación, las cosas que se postean en redes sociales y los videos que el usuario que ha visto, y poder perfilar y decir cuáles son sus gustos. Y en función de esa información, se puede desplegar le publicidad, es decir, desplegar publicidad sobre temas que a la persona le interesan", acota el experto.

En consideración de aquel modelo empleado para la realización del estudio por Espacio Político, es que el profesor Jaramillo plantea las razones que derivaron en la "inexactitud" que hubo entre aquel análisis y los resultados finales del Plebiscito de salida, las cuales tendrían justificación en el "error de concepto" que significa proyectar una intención de voto con información sacada por redes sociales.

"Hay un error de concepto, y es considerar que las redes sociales son la opinión pública. Pensar que lo que dicen las redes sociales representan a toda la sociedad es un problema bastante complejo. Si nosotros vemos las redes sociales, funcionan bajo sistemas de nicho, entonces las redes sociales van a configurar 'cámaras de eco', es decir, los algoritmos siempre me muestran cosas según lo que yo pienso y gente que sea muy cercana a mí y ese es el problema", sostiene el académico.

"Básicamente lo que las redes sociales nos pueden indicar es qué sectores son más activos que otros, pero no representan de ninguna manera como lo que podríamos denominar como la mayoría silenciosa (...) Por lo tanto, es un error pensar que las interacciones de redes sociales y las búsquedas puedo predecir el resultado de una votación", agregó Jaramillo.

En ese sentido, el académico de la Universidad Finis Terrae plantea que los análisis basados en la Big Data son muy amplios y podrían llevar a sacar conclusiones inexactas. "Acá estamos tomando de Big Data que a lo mejor dicen cuáles son las interacciones que tuvieron, de lo que publicaron, pero no hay una relación. Es decir, estoy tomando datos de A y estoy sacando conclusiones de C. Al tomar datos del Big Data estamos viendo los intereses, no les están preguntando qué van a votar o cómo van a votar, se están sacando conclusiones con otro tipo de datos", señala.

Voto obligatorio


Para lo que fue el Plebiscito de entrada y la segunda vuelta presidencial, Espacio Político emitió proyecciones sobre lo que serían los resultados utilizando la misma metodología. En aquella primera instancia electoral, el modelo arrojó como resultado que la opción Apruebo ganaría con un 77,80% de las preferencias, y el resultado final fue de 78,28%.

En tanto, para la segunda vuelta entre Gabriel Boric y José Antonio Kast, el modelo pronosticó un triunfo del actual Presidente por un 57% de las preferencias, en contra 43% del segundo candidato, siendo el resultado final de 55,64% para el ahora Mandatario. Sin embargo, esas votaciones estuvieron dadas por un escenario distinto: el sufragio no era obligatorio.

De acuerdo con María Jaraquemada, directora ejecutiva de Chile Transparente, el voto obligatorio incidió en todas las encuestas, incluyendo la que utilizó el modelo matemático de análisis basado en los datos de la Big Data. "Las encuestas habían ajustado su metodología al sistema de voto voluntario y de votante probable, entonces era difícil volver, después de 10 años de voto voluntario, volver a saber qué iba a pasar con el voto obligatorio y captar eso", explicó.

"Además, recordemos que la mayoría de las encuestas, salvo la CEP, no se hacen cara a cara, entonces tiene una tasa de respuesta que a veces no tenemos la información concreta, entonces se debería avanzar en mayor transparencia de las metodologías. Creo que las encuestas apuntaban a qué opción ganaba, pero no al resultado", indicó la expertas como las razones que habían derivado en la diferencia generalizada de las proyecciones versus los resultados finales.

"De hecho, varias encuestas se realizaron en el periodo de apagón electoral y la mayoría incluso estrechaban resultados a favor del Apruebo en los días previos al 4 de septiembre, es decir, se alejaban más aún. Efectivamente, al final del día ninguna de las encuestas le apuntó al resultado, pero las de modelamiento matemático estuvieron mucho más lejos porque no le apuntaron a la opción que ganaba", comentó Jaraquemada.

Con respecto a lo que fue el análisis específico de Espacio Político, la directora ejecutiva de Chile Transparente comentó cuál fue el error: "Claramente, lo que las personas estaban expresando a través de redes sociales y en la búsqueda de Google no es algo que, al menos en este caso, era extrapolable al resto de la población".

"No era representativo y no era sacar conclusiones respecto de la conducta al votar. El que busquemos palabras claves en Google, por ejemplo, tiene que ver con polémicas que han ocurrido en torno a esos temas los días previos, más que realmente un tema de preferencia electoral. En otros casos sí había estado más certero y en otros países también, pero no en todos los casos puede ser extrapolable a una preferencia electoral", agregó.

Adicionalmente, Jaraquemada enfatizó que el "voto obligatorio nos cambió un poco el paradigma, creo que esos modelos pueden funcionar para voto voluntario, porque efectivamente las personas más interesadas son las que tienen mayor interacción en internet con estos términos y porque son las que van a ir a votar, pero aquí, habiendo un gran número de personas que fueron a votar igualmente y que a lo mejor no tenían interés, pero tomaron su decisión en base quizás a lo que conversaron con familiares o venían a los medios".

"Claramente, eso no se pudo captar a través de esa metodología", zanjó la experta.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?