El machine learning ¿Cómo se clasifican los diferentes modelos?

Sabemos que la inteligencia artificial (IA) son algoritmos capaces de permitirle a la máquina imitar el comportamiento humano. Dentro de la IA, se encuentra el subgrupo de Machine learning, qué son algoritmos que permiten a las máquinas aprender por sí mismas a cómo realizar una tarea humana sin ser programadas específicamente para ello.
machine learning
Tiempo de lectura: 8 minutos
Table of Contents

¿Qué es el Machine Learning?

Cómo dijimos anteriormente, el Machine learning es un subconjunto dentro de la Inteligencia artificia (IA), no imita funciones cognitivas humanas, sino que aprende a realizar una tarea a partir de experiencia previa, lo que en este contexto llamamos datos. Los algoritmos de Machine learning no se diseñan manualmente reproduciendo operaciones, sino que aprenden a reproducirlas mejorando su performance a través de un “Data set” o conjunto de datos.

Un algoritmo de Machine Learning es capaz de aprender a partir de los datos, hay una definición que la da Mitchell en 1997 y dice:

…”Un programa se dice que aprende de experiencia E con respecto alguna clase de tareas T y una pedida de performant P, sí su performance para las tareas en T medida por la métrica P mejora con la experiencia E”… 

Entonces la tarea (T) es “la tarea objetivo”, es decir el problema que queremos resolver.

La experiencia (E) son los datos, los ejemplos o las muestras que describen las entradas y las respuestas esperadas de algoritmo. 

La performance (P) es la función que hay que optimizar, es la forma de medir el error o la precisión del algoritmo al ejecutar una tarea.

Cuestiones a tener en cuenta para la resolución de un problema mediante Machine Learning:

  1. Identificar la tarea a resolver.
  2. ¿Qué datos necesito?.
  3. ¿Qué métrica puede utilizar para evaluarlo?.
  4. ¿Qué modelos existen para atacar problemas similares?.

Luego preparar los datos necesarios para entrenar el algoritmo, recolectarlos, curarlos y luego dividir los datos representativamente en un set de entrenamiento, un set de validación y un set de test.

Nota: para curarlos hay que tener en cuenta el Análisis, detectar problemas, aplicar mecanismos de corrección en la información. Es decir, si hay información faltante o si hay valores no válidos.

Luego hay que entrenar el modelo, para ello se debe realizar esta acción sobre los datos del entrenamiento utilizando una configuración determinada, evaluar ese modelo sobre los datos de validación y si la performance no es satisfactoria; hay que recalibrar el modelo, repetir el entrenamiento y la evaluación, finalmente evaluamos los resultados sobre los datos de test.

Resumen de clasificación de ML

  1. Según la naturaleza de los datos: 
    • Supervisado → Subclasificación → débilmente supervisado
    • No supervisado → Subclasificación → semi supervisado
  1. Según la forma que el algoritmo ve la forma para entrenarse 
    • Batch Learning
    • Online learning
  1. Según el problemas típico a resolver:
    • Regresión simple
    • Clustering 
    • Clasificación
    • Deteccion de anomalias

A continuación detallamos claramente cada uno de los tipos propuestos.

Dados de los tipos de problemas de Machine Learning según la naturaleza de los datos se pueden dividir en:

  1. Supervisado.
  2. No supervisado.

En el aprendizaje supervisado los modelos se entrenan a partir de muestras y sus etiquetas asociadas, entonces lo que hace el algoritmo es aprender a descubrir los patrones que están asociados a cada etiqueta. En el no supervisado los modelos descubren patrones en la distribución de las muestras en un determinado espacio de características de las muestras, los datos no están anotados, sino que sólo se cuentan con muestras y sus características.


Dentro de lo que es aprendizaje supervisado los algoritmos que tenemos pueden ser:

  1. “K- nearest neighborhoods” o vecinos más cercanos
  2. Support vector Machine
  3. Regresión logística
  4. Árboles de decisión
  5. Random Forest
  6. Algunas redes neuronales.

En lo que son métodos de aprendizaje no supervisados tenemos los siguientes métodos:

  1. Metodo de Clustering
    1. K-means
    2. Fuzzy C-means
    3. Clustering jerárquico
  2. Algunas redes neuronales
  3. Método de reducción de dimensionalidad:
    1. PSA
    2. T-SNE 
  4. Reglas de asociación.

Ejemplos para comprender: En aprendizaje supervisado, en una regresión la experiencia es toda la data de una casa, y la etiqueta el precio por ejemplo.

En una clasificación, en el ejemplo de si un correo electrónico es spam o no, la data es toma la info de dicho correo y la etiqueta de si fue o no spam.

Después tenemos dos subclasificaciones dentro de los supervisado y no supervisado Qué es una zona gris que está 

El débilmente supervisado: que son modelos supervisados que usaron datos con etiquetas débiles, quizás datos con etiqueta que son generadas por otro algoritmo, pero que no son la verdad absoluta 

Y dentro del no supervisado tenemos en semi supervisado, qué son algoritmos que pueden lidiar con datos parcialmente anotados, esto quiere decir que algunas muestras tienen etiquetas y otras no.

Según la forma que el algoritmo ve la forma para entrenarse lo podemos dividir en Batch Learning u online learning

En Batch Learning el modelo se aprende sobre un conjunto de datos, pero no es capaz de mejorar incrementalmente, se usan todos los datos para entrenar y el modelo se entrena offline, luego el modelo de “deploya” en la aplicación correspondiente.

Ahora bien, en no-online learning el modelo se entrena de manera incremental alimentándose secuencialmente con grupos de instancias, el modelo aprende iterativamente conforme recibe las nuevas muestras y el ritmo de entrenamiento lo termina lo terminan dando un parámetro que se llama la learning writhe. 

Dentro de los modelos de Batch Learning que conocemos se encuentran:

  1. “K neighborhoods” o vecinos más cercanos.
  2. Support vector machines.
  3. Logistic regression.
  4. Clustering.
  5. Reducción de discrecionalidad.

En no-online learning son todas las redes neuronales.

Después tenemos muchas formas de clasificarlos, si son basados en una instancia o basados en un modelo, o si son alguno de los cuatro problemas más típicos entrarán en:

  1. Regresión simple.
  2. Clustering.
  3. Clasificación.
  4. Detección de anomalias.

La regresión es modelo cuya función es predecir una variable continua a partir de las características de una muestra determinada. Se entrena con conjuntos de datos anotados, con lo cual es lenguaje supervisado, en la que cada muestra tiene un valor continuo asociado y lo que hay que hacer es minimizar el error cometido al intentar predecir sobre los datos de entrenamiento. Dada una muestra sin etiquetar el modelo permite realizar predicciones de la variable objetivo.

Por ejemplo la predicción del costo de una casa, la predicción de la calidad de un vino puede ser a partir de sus ingredientes.

En lo que son los problemas de clasificación, los modelos lo que tienen que predecir a qué clase y que variable categórica pertenece la muestra a partir de sus características. 

Se entrena también sobre datos anotados, por lo que es entrenamiento supervisado, las etiquetas de cada muestra corresponden a un valor discreto. Por ejemplo si un mail es spam o no lo es.

El modelo se entrena minimizando el error cometido al intentar predecir sobre los datos de enterramiento, dado una muestra que no está etiquetada el modelo le va a asignar un valor o una clase, por ejemplo reconocer dígitos escritos a mano a partir de fotografías es un modelo de clasificación.

Clustering: identifican grupos de muestras en un determinado espacio de características, los datos no tiene etiquetas, es no supervisado. Se utilizan para modelar, aproximar la distribución de los datos en la vida real y lo que busca es identificar los grupos estudiando las instancias entre las diferentes muestras, utilizando una métricas de distancia dada. Cuando hablamos de distancia, estamos hablando de que tan lejos están los puntos dentro de un grupo, con relación a puntos de otros grupos. 

Dada una nueva muestra se le asigna un grupo según su distancia a los diferentes grupos descubiertos. Por ejemplo, identifica el grupo de consumidores similares a partir de sus interacciones con un sitio de compras.

Y el de detección de anomalías, identifica muestras anómalas (Out layers), muestras que no se corresponden con la de una determinada distribución normal o estándar, y se entrena utilizando una base de muestras que se sabe a ciencia cierta que corresponde a ejemplos estándares. 

Lo que hace es caracterizar el espacio de muestras normales estudiando la distribución de las diferentes características y dado una nueva muestra muestra el modelo determina si es una anomalía estudiando y cae o no cerca de la distribución de muestras normales.

Todas las técnicas de machine learning son necesarias para optimizar la precisión de los modelos predictivos existentes. Dependerá de la naturaleza del problema empresarial a resolver, existen diferentes enfoques basados en el volumen y tipo de los datos. 

Machine learning permite crear un valor potencial a las compañías que tratan de aprovechar el big data y les ayuda a entender mejor los cambios en el comportamiento, las preferencias o la satisfacción del cliente. 

Quienes dirigen negocios están empezando a descubrir y entender que muchas cosas que suceden dentro de sus organizaciones e industrias no pueden ser entendidas a través de una consulta. No son las preguntas que conocemos; son los patrones ocultos y las anomalías enterradas en los datos que pueden ayudarnos o dañarnos.

Compartir esta noticia
Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp

Otros Artículos

Suscríbete a nuestro Newsletter
No te pierdas las últimas noticias del mercado.

Algorithmic Process Automation (APA)

Esta es una “caja” de estrategias para el operador o trader, que le permite llevar adelante la optimización y minimización de errores, en la ejecución de tareas repetitivas dentro de una mesa de operaciones. Mejora de este modo la productividad y eficiencia del equipo de trabajo en el accionar diario.

Estrategias

Realice operaciones de canje entre dólar mep y cable mediante la operatoria de bonos o acciones. Para utilizar esta estrategia, debes configurar la cantidad de dólar cable a operar, el tipo de operación (compra o venta), el precio al que se desea realizar, y los títulos que se emplearán para realizar la operación.

Tiene como objetivo realizar una compra de un activo promediando un valor por debajo del máximo configurado. Está pensada para optimizar el flujo de una operación, consiguiendo el precio deseado sin la necesidad de la intervención de un operador. Se puede configurar el monto total a operar, el precio límite y por último el tamaño máximo de las órdenes.

Tiene como objetivo colocar un monto en una moneda determinada a tasa entre plazos. Pensado para poder optimizar el curso de operaciones de colocación a tasa a través de un algoritmo y no requiriendo una intervención activa de un operador.

Realizá operaciones de compra o venta de dólares mediante la operatoria de bonos o acciones. Para utilizar esta estrategia, debes configurar la cantidad de dólares a operar, el tipo de operación (compra o venta), el precio al que se desea realizar, y los títulos que se emplearán para realizar la operación.

Dada una posición tomada en un valor negociable, la desarmar y la rearma en otro valor negociable, respetando un ratio de precios configurado entre ambos.

Price Improvement Iceberg (PII). Esta estrategia busca estar siempre primera en el book de órdenes con el objetivo de discretizar una orden de compra o venta. Permite configurar precio límite, monto total a operar, límite de monto por orden y cuenta con un mecanismo para ocultarle al mercado su accionar, modificando las órdenes que va enviando en su tamaño.

Tiene como objetivo tomar un monto en una moneda determinada a tasa entre plazos. Pensado para poder optimizar el curso de operaciones de tomar tasa a través de un algoritmo y no requiriendo una intervención activa de un operador.

Tiene como objetivo realizar una venta de un activo promediando un valor por debajo del máximo configurado. Está pensada para optimizar el flujo de una operación, consiguiendo el precio deseado sin la necesidad de la intervención de un operador. Se puede configurar el monto total a operar, el precio límite y por último el tamaño máximo de las órdenes.

Pensada para simplificar la gestión pasiva de liquidez de una gran cantidad de cuentas comitentes, esta estrategia permite la automatización en la ejecución de órdenes de cauciones colocadoras en el mercado. A partir de una lista de cuentas y saldos, el algoritmo envía órdenes al mercado siguiendo parámetros de plazo, tasa, agresión y tamaño. El resultado es la ejecución de cientos de órdenes en pocos minutos manteniendo un control global del proceso en cada momento.

Es un algoritmo pensado para simplificar el proceso de colocación de órdenes para tomar liquidez del mercado. A partir de un detalle de saldo requerido por cuenta comitente y la definición del plazo (caución a t dias), el motor administra el envío de órdenes dentro de parámetros definidos de tasas objetivos y agresividad en la colocación. El resultado es la ejecución de cientos de órdenes en pocos minutos manteniendo un control global del proceso en cada momento.