El nuevo desafío regulatorio: la neutralidad de algoritmos
Supongamos que decidimos solicitar un crédito en nuestro banco, seguramente seremos atendidos por el personal de la entidad quienes tomarán toda nuestra información, sin embargo, no serán ellos quienes lo otorguen, tampoco lo hará el jefe de ellos, pues en realidad la decisión de aprobación será de un algoritmo, es decir, un software de computadora que basado en nuestros datos cruzará todas las variables y finalmente determinará si somos aptos o no para el desembolso del dinero.
A los pocos días decidimos aplicar en línea para una atractiva oferta de empleo en una multinacional, digitaremos todos nuestros datos y seremos entrevistados por funcionarios expertos en captación de talento laboral. La eliminación y selección final de candidatos lo hará un algoritmo basado en la información que suministramos, más la que el software encontró en nuestras publicaciones de redes sociales y las que aportó el personal que nos entrevistó.
Semanas después tomamos un seguro de salud y será también un algoritmo el que determine nuestro nivel de riesgo y decida finalmente no solo otorgárnoslo, sino que determinará el valor de la póliza.
Aunque estas situaciones parecieran estar saliendo de un capítulo de "Black Mirror", es decir, de una serie televisiva de ficción, en realidad es lo que está ocurriendo en la contemporaneidad. Los algoritmos han simplificado enormemente nuestras vidas, pero también se están convirtiendo en una gran amenaza, ya que la mayor parte de las decisiones que impactan en nuestra cotidianidad están siendo tomadas por códigos de computadora.
¿Qué son los algoritmos y por qué deben ser neutrales?
Para poder entender el impacto de los algoritmos en nuestras vidas y la urgente necesidad de políticas que los regulen, primero debemos definir de que se trata. Simplificando la definición, podríamos decir que un algoritmo es un software con una secuencia de instrucciones para ejecutar una determinada tarea, que simula un comportamiento autónomo y sus rutinas impactan de forma directa en nuestras vidas.
Los algoritmos son responsables de la elaboración de muchos de los perfiles que evalúan aspectos transversales de la sociedad contemporánea, desde el rendimiento en nuestro trabajo, pasando por la situación económica, nuestra salud, los lugares que visitamos, los contenidos que consumimos, es decir, datos que resumen nuestras vidas.
Los algoritmos obtienen la información de múltiples fuentes, por ejemplo, los bancos lo hacen de las centrales de riesgo financiero, los movimientos y experiencia crediticia con el mismo banco y la información que le certificamos, aunque en los últimos meses el consultar la información que publicamos en redes sociales, se ha convertido también en una estrategia utilizada por entidades financieras.
El mayor riesgo está en Silicon Valley
Pero si bien bancos, aseguradoras, gobiernos y empresas han venido implementando con los años el uso de los algoritmos, no son ellos los principales usuarios de esta tecnología, ya que las grandes compañías de internet denominadas popularmente como las ".com", son quienes han venido recabando masivamente nuestra información y aplicándola en múltiples tipos de códigos computarizados, pudiéndose afirmar casi con total certeza, que nos conocen incluso mejor que nosotros mismos.
Compañías como Facebook, Alphabet Inc. (propietaria de Google), Apple, Amazon, Netflix, Ebay o Tripadvisor, entre muchísimas otras, saben qué tipo de contenido consumimos, nuestra ideología política, quienes son nuestros amigos y familia, que lugares visitamos, que comida nos gusta, cuales películas vemos, que tipo de fotos compartimos, con quien nos reunimos, que opinión tenemos frente a temas sensibles, con qué frecuencia nos conectamos a internet, que tipo de dispositivos poseemos y como los utilizamos y por supuesto esa información termina influyendo en el tipo de publicidad que recibimos, la información a la que estamos expuestos, los contenidos que se nos ofrece en nuestros dispositivos, entre muchas otras variables.
Hasta ahí todo está dentro de lo previsto, pues la gratuidad del servicio está compensada con el uso de nuestros datos para fines publicitarios manteniendo nuestra "privacidad", no obstante, recientes escándalos han demostrado que no solo es utilizada para fines publicitarios, sino para otros propósitos que han desbordado los límites legales, tal y como pasó hace algunos meses con el escándalo de Facebook y Cambridge Analytica, tema que tratamos en el artículo: "La crisis de la privacidad en la era digital"
La crisis de Cambridge Analityca
Pero si bien, el tema de la neutralidad de los algoritmos ha sido ampliamente discutido por los académicos en la última década, fue justamente el escándalo de Facebook y la empresa británica de análisis de datos la que prendió las alarmas a nivel mundial, pues puso al descubierto que nuestra información está siendo utilizada para privilegiar intereses privados, políticos y sociales, sin nuestra expresa autorización, rompiendo las políticas y acuerdos de confidencialidad.
Este es un perfecto ejemplo de una situación en la cual los algoritmos dejan de ser neutrales, es decir, cuando pasan a beneficiar un interés, persona u organización en perjuicio de otras personas, intereses u organizaciones, tal y como quedó demostrado que ocurrió en muchas campañas políticas alrededor del mundo, en donde el algoritmo de Cambridge Analytic terminó beneficiando un candidato en perjuicio de otros, en una explosiva mezcla que incluyó el uso de información sobre los votantes, especialmente sus miedos y temores mas profundos para ser expuestos a contenidos, en su gran mayoría falsos, induciendo erróneamente la decisión del voto.
En otros casos posiblemente lesivos, se ha demostrado que los algoritmos son utilizados para favorecer intereses comerciales, tal es el caso de Amazon que utiliza el código dentro de su propia tienda virtual, para exhibir sus productos en los primeros lugares, por encima de todos sus competidores, o el caso de Google que siempre exhibe en los primeros lugares búsquedas relacionadas con sus productos, es decir, si alguien escribe en el motor de búsqueda la palabra "Correo electrónico", le saldrá como primera opción "Gmail".
Por este tipo de prácticas, Google recibió una millonaria sanción de 5 mil millones de dólares por parte de la Unión Europea, quien consideró en la sentencia, que Google "bloquea la innovación abusando de su posición dominante", entre otras cosas "a través de la configuración del algoritmo de su motor de búsqueda".
Discriminación efectiva:
Pero la Neutralidad no solo se rompe cuando se busca beneficiar una causa en perjuicio de otra, también ocurre cuando el Algoritmo ejerce algún tipo de discriminación, tal es el caso de un Software para procesos judiciales de origen norteamericano llamado COMPAS, el cual es utilizado por el sistema de justicia en al menos 10 Estados, en donde los jueces lo utilizan como ayuda para emitir sentencias.
Este algoritmo se basa en estadísticas criminales y en varias ocasiones diversas organizaciones sociales y abogados litigantes, han denunciado que, si el incriminado es de origen latino o de raza negra, el Software tiende a calificar al sospechoso como "De alto riesgo de cometer nuevos crímenes". Un análisis de más de 10.000 acusados en el estado de Florida publicado en 2016 por el grupo de investigación "ProPublica", mostró que las personas negras eran a menudo calificadas con altas probabilidades de reincidir, mientras que los blancos eran considerados menos proclives a cometer nuevos crímenes.
Es por lo anterior que se hace necesario que los gobiernos comiencen a definir políticas regulatorias en esta materia, buscando garantizar que los algoritmos respeten el equilibro democrático, la pluralidad, la inclusión y la defensa de los derechos civiles. Un paso importante en este sentido ha sido la nueva directiva de privacidad que ha implementado la Unión Europa, la cual sienta las bases para una política de respeto por el uso de los datos y un segundo paso lo dará en septiembre cuando vota su nueva directiva regulatoria. En el caso de América Latina algunos gobiernos han comenzado a estudiar tímidamente el tema y en muy pocos parlamentos ha dado un debate serio o riguroso al respecto.
En conclusión, si bien los algoritmos han permitido la automatización eficiente de muchos procesos sociales, que de una u otra manera han mejorado significativamente nuestra forma de vida, también se han convertido en un factor de riesgo muy alto para favorecer intereses en perjuicio de la libre competencia, de la pluralidad y el acceso equitativo, pero sin duda el mayor riesgo respecto a los algoritmos se desprende de la posible discriminación efectiva que puedan ejercer al momento de ser ejecutados.
Es por todo lo anterior que los gobiernos y organismos regulatorios alrededor del mundo deben diseñar una política que trace reglas de juego claras para estos códigos de software y garanticen bajo cualquier circunstancia el respeto integral de los derechos civiles de los ciudadanos, sus empresas e intereses.
(*) El autor (Gabriel E. Levy B.) es asesor consultor experto en contenidos y telecomunicaciones, docente universitario: UdeA – U Externado.
Fuente: Gabriel E. Levy B. – andinalink.com (*)