Contáctenos

A través de este formulario podrá dejarnos sus comentarios, sugerencias o inquietudes.

Dirigido a:

Todos los campos son obligatorios.
Cancelar

Reportar Comentario

Estas reportando este comentario a la redacción de El Cronista.

Todos los campos son obligatorios.
Cancelar

Recomendar Nota

A través de este formulario podrá recomendar la noticia que esta leyendo.

Todos los campos son obligatorios.
Cancelar
U$D
/
MERVAL

Google lanza sistema que descifra dónde se tomó una foto

Google presentó un sistema que intenta determinar la ubicación en la que se tomó una fotografía mediante el análisis de la imagen, conforme el grupo de Internet continúa experimentando con tecnologías avanzadas "de aprendizaje automático".
Aunque se encuentra en sus primeras etapas, el sistema de la compañía californiana es otro ejemplo de cómo los grupos de Silicon Valley están haciendo grandes avances en la inteligencia artificial, usando la capacidad de procesar grandes cantidades de datos y reconocer patrones para desarrollar capacidades fuera del alcance del cerebro humano.
Facebook, IBM y varias empresas "start-up" están trabajando en las características de la inteligencia artificial para alimentar dispositivos tales como asistentes digitales, aplicaciones de cuidado de la salud que pueden diagnosticar condiciones médicas y el software que hace funcionar los automóviles sin conductor.
El último experimento de Google intenta resolver una tarea muy difícil para la mayoría de los seres humanos: mirar una foto al azar e intentar averiguar dónde fue tomada.
Los seres humanos pueden determinar a grosso modo dónde se ha tomado una foto, basados en indicios en la imagen, como el tipo de árboles en el fondo y el estilo arquitectónico de los edificios. Se ha demostrado que esta tarea está fuera del alcance de la mayoría de los sistemas informáticos.
Esta semana, Tobias Weyand, un especialista de Google en reconocimiento de imágenes por computadora, dio a conocer un sistema llamado PlaNet que puede descifrar dónde ha sido tomada una fotografía mediante el análisis de los píxeles que contiene.
"Creemos que PlaNet tiene una ventaja sobre los seres humanos porque ha visto muchos más lugares que cualquier humano puede visitar jamás y ha aprendido las señales sutiles de las diferentes escenas que son incluso difíciles de distinguir para un ser humano que haya viajado mucho", dijo Weyand a la revista MIT Technology Review, que dio la primicia.
Su equipo dividió el mundo en un entramado que contiene 26.000 cuadrículas – cada una representa un área geográfica específica. Para cada cuadrícula, los científicos crearon una base de datos de imágenes obtenidas del Internet que podrían ser identificadas por su "geolocalización", las firmas digitales que muestran dónde se toman muchas de las fotografías. Esta base de datos consta de 126 millones de imágenes.
Usando esta información, el equipo le enseñaría a una red neuronal –un sistema informático que imita cómo interactúan las capas de neuronas en el cerebro– a asignar cada imagen a un lugar específico.
El equipo de Weyland utilizó 2,3 millones de imágenes "geoetiquetadas" de Flickr, la biblioteca de fotos en línea, para probar el sistema. Según los resultados, el sistema puede averiguar en qué continente se tomó la imagen el 48% de las veces, el país de origen el 28,4% de las veces, la ciudad el 10,1% de las veces, y la calle el 2.6% de las veces.
Aunque esto significa que aún dista mucho de ser perfecto, este desempeño es mucho mejor que el de los humanos.