La Corte Suprema de Estados Unidos sentó este martes en el banquillo a Google para evaluar si es responsable de las recomendaciones que sus algoritmos hacen a sus usuarios, en un caso con implicaciones en la libertad de expresión.
Google, propietaria de Youtube, fue denunciada por la familia de Nohemi González, una estadounidense de 23 años asesinada en París durante los atentados de noviembre de 2015 del grupo Estado Islámico (EI), que mataron en total a 130 personas.
Sus padres consideran que Google, a través de Youtube, permitió al EI colgar videos que incitaron a la violencia y a unirse a él, además de recomendar a sus usuarios grabaciones de los yihadistas a través de un algoritmo que identificó a posibles interesados. En su opinión, eso hace que la tecnológica sea legalmente responsable del daño infligido.
Este martes fue la primera vez que la máxima instancia judicial estadounidense analizó
la sección 230 de la Ley de Decencia de las Comunicaciones, aprobada en 1996, cuando internet se encontraba en sus albores.
Esa regulación blinda a las plataformas frente a las demandas que las tratan como responsables de la información suministrada por otra fuente. En concreto, establece que ningún proveedor debe ser tratado "como editor o difusor de información facilitada por otro proveedor de contenidos".
Está en el aire determinar si pueden ser culpadas por las recomendaciones de material de terceras partes.
"¿Los proveedores de internet son responsables del siguiente video que me sale disponible?", se preguntó este martes la jueza progresista Sonia Sotomayor en la vista oral. "No entiendo cómo una sugerencia neutra de algo en lo que hayas mostrado interés es una incitación", añadió el magistrado conservador Clarence Thomas.
"La cuestión es qué hace el acusado con el algoritmo. ¿Lo usa para incitar a la gente a mirar videos del EI? (...) Te ofrecen cosas que no has pedido. No hay diferencia con que te estuvieran mandando un email", respondió el abogado Eric Schnapper, representante del padre de Nohemi, Reynaldo González.
La decisión de la Suprema, de mayoría conservadora, no llegará hasta el verano, pero distintas plataformas han advertido ya que el fallo podría tener repercusiones en la forma en la que funciona internet.
"Los servicios informáticos interactivos deben tomar decisiones constantes sobre qué información mostrar y cómo para que los usuarios no se sientan abrumados con información irrelevante o no deseada", dijo Google en un escrito enviado a la corte.
"Ayudar a encontrar la aguja en el pajar es una necesidad existencial de internet", apuntó en la vista la abogada de la firma, Lisa Blatt.
El juez Brett Kavanaugh, de tendencia conservadora, avisó igualmente frente a un futuro hipotético en el que ese blindaje no exista: "Cada día se realizan miles de millones de consultas en internet. Cada una de ellas abriría la posibilidad de una demanda".
El caso ha ofrecido la oportunidad de que los impulsores de la ley en cuestión, el actual senador demócrata Ron Wyden y el ex congresista republicano Chris Cox, se pronuncien sobre sus intenciones originales.
"La Sección 230 protege las recomendaciones específicas en la misma medida que otras formas de edición y presentación de contenido. Cualquier otra interpretación subvertiría su propósito de fomentar la innovación en la presentación y moderación. Dado el enorme volumen de contenido creado por los usuarios en la actualidad, su protección es incluso más importante ahora que cuando se promulgó", han dicho.
Los González presentaron su denuncia en 2016, pero un tribunal federal de California destacó que Google estaba protegida por ley porque los videos en cuestión fueron producidos por el EI. Una corte de apelaciones coincidió más tarde con el tribunal, lo que hizo que los demandantes llevaran el caso ante la Suprema, que lo admitió a trámite en octubre.
El alto tribunal examina este miércoles un caso similar presentado contra Twitter por la familia de un joven jordano que falleció en enero de 2017 en un ataque del EI en Turquía y que, representada también por Schnapper, acusa a la tecnológica de no haber hecho lo suficiente por frenar la difusión de contenido violento.