LA INTIMIDAD DE LOS NEGOCIOS EXPUESTA Y SIN REGULACIÓN

Entre los datos y la ética, la mirada de los expertos sobre el rol del usuario y las empresas

Especialistas del sector conversaron en la redacción de El Cronista Comercial sobre los riesgos y los desafíos que surgen de la analítica de datos en la vida pública

El escándalo en torno a la firma británica de análisis de datos Cambridge Analytica, que utilizó información de millones de usuarios de Facebook en forma fraudulenta, puso sobre la mesa el debate sobre el uso no ético de los datos y el peligro real de los hackeos.

En el encuentro "La analítica de datos y la ética social", organizado por El Cronista Comercial, especialistas en el tema debatieron sobre la responsabilidad de las empresas y los usuarios en el uso de datos. Además, hicieron hincapié en la necesidad de profesionales más completos, formados en valores, para que la analítica evolucione sin tantos riesgos.

"Hay una lucha que no tiene fin entre los que tratan de proteger la información y los que tratan de romper ese encriptamiento. El caso de Cambridge Analytica mostró a través de la ilegalidad lo que puede hacer la legalidad. Cómo mis datos pueden ser utilizados a pesar de que yo consentí que se usen", planteó Juan Pablo Rodríguez Varela, Applied Intelligence Senior Manager de Accenture.

"El hackeo de datos es peligroso y va a ser peor todavía porque en el mundo virtual se están dando casos que afectan el mundo real, como el caso de los autos inteligentes. Esto va a seguir siendo un problema y no estoy viendo una solución a la seguridad", agregó.

Sin embargo, los hackeos no son el único riesgo. Existe un sesgo en los datos como consecuencia de mala fe en el hacer, y también como consecuencia de los datos que se toman.

Vidaguren y Flavio Cannilla, de El Cronista

"Un estudio en base a fotos de Google mostró que la cocina está relacionada a la mujer debido a una gran cantidad de imágenes de publicidades. Hay que tener cuidado al momento de hacer el algoritmo para no tener ese sesgo y tomar conclusiones equivocadas", ejemplificó Varela.

¿Habrá soluciones?

Una de las soluciones que mencionó Rifat Lelic, director del Departamento Economía y Desarrollo Profesional del ITBA, es el uso de evaluaciones de impacto en aquellos algoritmos que tienen un fuerte impacto social, teniendo en cuenta los posibles sesgos en los que pueden incurrir.

"Por ejemplo un algoritmo que sirva para correlacionar ausentismo en un trabajo con alguna característica de los trabajadores, como su grupo social. Qué impacto y qué consecuencias puede tener eso si terminamos usando ese algoritmo para decir que una persona de tal grupo social tiene tal tipo de conflicto. Tenemos que tener de antemano una evaluación de que esto puede tener una consecuencia no beneficiosa, que puede contribuir a generar estereotipos y debilitar el entramado social", explicó.

 

 

Regulación de datos

Los especialistas coincidieron en que se pueden regular los datos y que incluso las empresas están controlando más que éstos sean protegidos y se usen correctamente.

"La normativa va siempre detrás de la innovación. Vemos que en los distintos gobiernos hay una mayor apertura a escuchar al mundo privado antes de hacer una regulación para dar seguridad a empresas y un marco de protección para los usuarios", opinó Gerardo Loureiro, director de Prevención de Fraude y Lavado de Dinero de Mercado Libre.

Por su parte, Sebastián Waisgras, especialista en Monitoreo e Inclusión Social de Unicef, apuntó que en Argentina a veces las regulaciones se van al extremo, sin embargo, aportó una mirada optimista de cómo los datos pueden democratizar y llegar a más poblaciones.

En cuanto al rol del usuario, todos acordaron en que "introducir educación y ciudadanía digital en edades más tempranas" es central a la hora de abordar este problema, así como también rever la forma en que las empresas transmiten la información.

"Hay una cuestión fuerte entre el beneficio y el riesgo. Del lado del usuario está el sentido común. Tratar de no mostrar en Facebook lo que no mostraría en la vida real. Educarnos en que el mundo digital es una extensión del mundo real. Más allá de los términos y condiciones, está del lado del usuario decidir qué quiere hacer", añadió Juan Vidaguren, director de la Licenciatura en Analítica Empresarial y Social del ITBA.

"La educación genera autorregulación. En términos de la sociedad, uno tiene que ser consciente de los datos que presta. El autocontrol es parte del individuo, no hay que esperar que las empresas hagan lo que uno no hace", concluyó Loureiro.

La mirada del ITBA

A partir del debate de si la responsabilidad es del usuario o del que usa los datos, Lelic señaló que surgió "la necesidad de que se intensifique la incorporación de la perspectiva ética desde la universidad", para formar profesionales más completos.

"Desde la ética podemos crear espacios de reflexión mediante el estudio de casos para incorporar valores en el proceso de utilización y gestión del Big Data y la construcción de algoritmos. La misión es incorporar valores del ITBA en la enseñanza, como respetar a las personas y trabajar con la verdad. Tenemos que ser responsables en lo que estamos planteando al hacer un algoritmo", razonó.

En esta línea, Vidaguren agregó: "Trabajamos para que los alumnos tengan una visión clara de la tecnología pero que también tengan en cuenta el contexto social y los valores. Que el algoritmo sea neutral".

Temas relacionados
Más noticias de ITBA

Las más leídas de Negocios

Las más leídas de Apertura

Destacadas de hoy

Noticias de tu interés