El detector de objetos que sobresale en el mercado de la Inteligencia Artificial – COLUMNA DE INVESTIGACIÓN DATLAS

Dentro de los campos de la Inteligencia Artificial (IA), existe la posibilidad de detectar un objeto en particular en imágenes o videos. Según Cath Sandoval de Lisa Insurtech, las detecciones consisten en clasificar objetos de acuerdo a una o más clases, por ejemplo, animales, vehículos, plantas, humanos, cheves, entre otras. Sin embargo, el mercado, de este tipo de tecnologías, tiene un producto que va más allá de hacer uso de una simple red convolucional. Estamos hablando de YOLO.

¿Qué es YOLO?

YOLO, por sus siglas You Only Look Once, es un algoritmo de regresión que estima la/s clase/s y la localización exacta de un objeto en una imagen. Así, YOLO hace uso de deep learning y redes convolucionales en su proceso de detección y clasificación de objetos, no obstante, resalta en el mercado porque solamente necesita visualizar la imagen a clasificar 1 vez, tal y como lo dice su nombre. Asimismo, YOLO tiene distintas versiones en su modelo, de tal manera que cada versión puede considerarse como una mejora a la versión pasada. A continuación, te mostramos una imagen que compara YOLOv3, YOLOv4 y 4 modelos ajenos a YOLO.

Comparativa de detectores de objetos

Como se puede ver en la imagen, YOLOv4 (haciendo referencia al 4to modelo de YOLO) presenta los mejores resultados porque analiza más fotogramas por segundo con una alta AP (Average Precision). Es necesario mencionar que, actualmente, existen más de 7 versiones de YOLO, pero únicamente se tiene documentación disponible de 4 versiones, pues el resto de versiones aun están en desarrollo.

El por qué deberías usar YOLO

Para tener la capacidad de decir que esta arquitectura computacional sorprende al mercado, deberíamos tener en cuenta las ventajas que promueve YOLO:

  1. Es muy rápido, porque puede llegar a clasificar 45 o más fotogramas por segundo dependiendo del modelo que se utilice.
  2. Tiene una versión ligera, sencilla y veloz. Esta pequeña versión es conocida como Tiny-YOLO que comprime las capas de la red neuronal promoviendo una mayor velocidad al costo de una menor precisión del modelo original.
  3. La detección de objetos con YOLO es libre de uso.
  4. No tiene costo monetario por ser implementada o utilizada.

Implementando YOLO

Esta herramienta computacional puede ser implementada de 3 maneras posibles:

  1. Darknet: Es la primera instancia de YOLO, de hecho, es su versión oficial y fue publicada por las personas que diseñaron el algoritmo. Todo el código esta programado en C con CUDA por lo que se sugiere utilizar un fuerte GPU para correr tus detecciones.
  2. Darknet de AlexeyAB: Es un proyecto de GitHub publicado por Alexey Bochkovskiy que adapta la versión de Darknet original para Windows y Linux. Incluso, el código puede ser importado a Python, de tal manera que puedas entrenar una red con tu propio dataset de imagenes y correr detecciones en vivo.
  3. Darkflow: Viene a ser un port de la versión original de Darknet pero hacia Tensorflow, además, esta publicado en GitHub, por lo que puede ser importado a través de un código.
Logo oficial de Darknet

Conclusión

Para cerrar el blog de hoy, hemos aprendido que tenemos una tecnología muy poderosa en nuestro alcance y completamente gratuita. Esta breve introducción a los modelos de YOLO ofrece una perspectiva de a dónde se dirige este tipo de mercado y brinda 3 maneras de utilizar la tecnología con su debida información. Si te interesa aprender más, existen guías en la web que facilitan la inducción a YOLO.

Muchas gracias por leernos.

Equipo Datlas

-Keep it Weird-

Fuentes:

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.