Entrenando a las Máquinas: Una introducción a los tipos de Machine Learning


por Yuri Brigance

Anteriormente escribí sobre el aprendizaje profundo en Edge. En este post voy a describir el proceso de configuración de un flujo de trabajo de Machine Learning (ML) de principio a fin para diferentes tipos de Machine Learning.

Existen tres tipos comunes de enfoques de formación de Machine Learning, que revisaremos aquí:

  1. Supervisado
  2. Sin supervisión
  3. Refuerzo

Y puesto que todos los enfoques de aprendizaje requieren algún tipo de datos de entrenamiento, también compartiré tres métodos para construir su conjunto de datos de entrenamiento a través de:

  1. Anotación humana
  2. Anotación automática
  3. Síntesis / Simulación

Aprendizaje supervisado:

El aprendizaje supervisado utiliza un conjunto de entrenamiento etiquetado de entradas y salidas para enseñar a un modelo a producir el resultado deseado. Este enfoque suele basarse en una función de pérdida, que se utiliza para evaluar la precisión del entrenamiento hasta que el error se ha minimizado lo suficiente.

Podría decirse que este tipo de aprendizaje es el más común y, en cierto modo, imita la forma en que un profesor explica la materia a un alumno mediante ejemplos y repeticiones.

Uno de los inconvenientes del aprendizaje supervisado es que requiere grandes cantidades de datos de entrenamiento etiquetados con precisión. Estos datos de entrenamiento pueden ser anotados manualmente (por humanos), mediante anotación automática (anotados por otros modelos o algoritmos) o completamente sintéticos (por ejemplo, imágenes renderizadas o telemetría simulada). Cada enfoque tiene tus pros y tus contras, y pueden combinarse según las necesidades.

Aprendizaje no supervisado:

A diferencia del aprendizaje supervisado, en el que un profesor explica un concepto o define un objeto, el aprendizaje no supervisado da a la máquina la libertad de desarrollar la comprensión por sí misma. A menudo, con el aprendizaje no supervisado, las máquinas pueden encontrar tendencias y patrones que, de otro modo, una persona pasaría por alto. Con frecuencia, estas correlaciones eluden la intuición humana común y pueden describirse como no semánticas. Por eso se suele aplicar el término "caja negra" a estos modelos, como el asombroso GPT-3.

Con el aprendizaje no supervisado, proporcionamos datos al modelo de Machine Learning que no están etiquetados ni estructurados. A continuación, la computadora identifica grupos de datos similares o patrones en los datos. Es posible que la computadora no encuentre los mismos patrones o grupos que esperábamos, ya que aprende a reconocer los grupos y patrones por sí mismo. En muchos casos, no estar limitados por nuestras ideas preconcebidas puede revelar resultados y oportunidades inesperados.   

Aprendizaje por refuerzo:

El aprendizaje por refuerzo enseña a una máquina a actuar de forma semisupervisada. Las máquinas son recompensadas por las respuestas correctas, y la máquina quiere ser recompensada tanto como sea posible. El aprendizaje por refuerzo es una forma eficaz de entrenar a una máquina para que aprenda una tarea complicada, como jugar a videojuegos o enseñar a andar a un robot con patas.

La máquina está motivada para ser recompensada, pero no comparte los objetivos del operario. Por eso, si la máquina puede encontrar la manera de "engañar al sistema" y obtener más recompensa a costa de la precisión, lo hará con avidez. Del mismo modo que las máquinas pueden encontrar patrones que los humanos pasan por alto en el aprendizaje no supervisado, las máquinas también pueden encontrar patrones que pasan por alto en el aprendizaje reforzado y explotar esos patrones invisibles para recibir un refuerzo adicional. Por eso tu experimento debe ser hermético para minimizar la explotación por parte de las máquinas.

Por ejemplo, un twitterbot de inteligencia artificial entrenado con aprendizaje por refuerzo fue recompensado por maximizar la participación. El twitterbot aprendió que la participación era muy alta cuando publicaba sobre Hitler.

Este comportamiento de las máquinas no siempre es un problema: por ejemplo, el aprendizaje por refuerzo ayuda a las máquinas a encontrar fallos en los videojuegos que pueden aprovecharse si no se resuelven.

Conjuntos de datos:

El Machine Learning implica disponer de datos con los que aprender. La calidad y cantidad de los datos de entrenamiento tiene mucho que ver con el rendimiento del algoritmo. Un conjunto de datos de entrenamiento suele consistir en muestras u observaciones. Cada muestra de entrenamiento puede ser una imagen, un clip de audio, un fragmento de texto, una secuencia de registros históricos o cualquier otro tipo de datos estructurados. Dependiendo del enfoque de Machine Learning que adopte, cada muestra también puede incluir anotaciones (salidas / soluciones correctas) que se utilizan para enseñar el modelo y verificar los resultados. Los conjuntos de datos de entrenamiento suelen dividirse en grupos en los que el modelo sólo se entrena en un subconjunto de todos los datos disponibles. Esto permite que una parte del conjunto de datos se utilice para validar el modelo, para garantizar que el modelo ha generalizado suficientes datos para funcionar bien en datos que no ha visto antes.

Independientemente del enfoque de entrenamiento que adopte, su modelo puede ser propenso a sesgos que pueden introducirse inadvertidamente a través de datos de entrenamiento desequilibrados, o la selección de entradas incorrectas. Un ejemplo es una herramienta de evaluación del riesgo penal mediante IA utilizada por los tribunales para evaluar la probabilidad de reincidencia de un acusado basándose en su perfil. Debido a que el modelo fue entrenado con datos históricos, que incluían años de desproporcionada persecución de grupos minoritarios y de bajos ingresos por parte de las fuerzas del orden, el modelo resultante produjo puntuaciones de riesgo más altas para los individuos de minorías y bajos ingresos. Es importante recordar que la mayoría de los modelos de Machine Learning detectan correlaciones estadísticas, y no necesariamente causalidades.

Por lo tanto, es muy conveniente disponer de un conjunto de datos de entrenamiento amplio y equilibrado para el algoritmo, que no siempre está disponible o es fácil de obtener. Se trata de una tarea que las empresas que desean aplicar el Machine Learning a tus casos de uso pueden pasar por alto en un primer momento. La adquisición del conjunto de datos es tan importante como la propia arquitectura del modelo.

Una forma de garantizar que el conjunto de datos de entrenamiento esté equilibrado es mediante el enfoque del Diseño de Experimentos (DOE), en el que se planifican y analizan experimentos controlados para evaluar los factores que controlan el valor de un parámetro o grupo de parámetros de salida. El DOE permite manipular múltiples factores de entrada, determinando su efecto en la respuesta del modelo. De este modo, se pueden excluir ciertas entradas que pueden dar lugar a resultados sesgados, así como comprender mejor las complejas interacciones que se producen en el modelo.

He aquí tres ejemplos de cómo se recopilan, y en algunos casos se generan, los datos de formación:

  1. Datos etiquetados en humanos:

Lo que denominamos datos etiquetados humanos es cualquier cosa que haya sido anotada por un ser humano vivo, ya sea mediante crowdsourcing o consultando una base de datos y organizando el conjunto de datos. Un ejemplo podría ser la anotación de puntos de referencia faciales alrededor de los ojos, la nariz y la boca. Estas anotaciones son bastante buenas, pero en algunos casos pueden ser imprecisas. Por ejemplo, la definición de "la punta de la nariz" puede ser interpretada de forma diferente por las distintas personas encargadas de etiquetar el conjunto de datos. Incluso tareas sencillas, como dibujar un recuadro alrededor de manzanas en fotos, pueden tener "ruido" porque el recuadro puede tener más o menos relleno, puede estar ligeramente descentrado, etcétera.

Si se dispone de datos etiquetados por personas, es un buen comienzo. Pero contratar anotadores humanos puede ser caro y propenso a errores. Existen varios servicios y herramientas, desde AWS SageMaker GroundTruth hasta varias startups que facilitan el trabajo de etiquetado a los anotadores y también conectan a los proveedores de anotaciones con los clientes.

Podría ser posible encontrar un conjunto de datos existente en el dominio público. En un ejemplo con puntos de referencia faciales, tenemos WFLW, iBUG y otros conjuntos de datos disponibles públicamente que son perfectamente adecuados para el entrenamiento. Muchos tienen licencias que permiten su uso comercial. Es una buena idea investigar si alguien ya ha producido un conjunto de datos que se adapte a tus necesidades, y podría valer la pena pagar por un pequeño conjunto de datos para arrancar su proceso de aprendizaje.

2. Anotación automática:

En términos sencillos, la anotación automática consiste en utilizar un algoritmo existente o crear uno nuevo para añadir anotaciones a los datos brutos de forma automática. Parece el huevo y la gallina, pero es más factible de lo que parece.

Por ejemplo, es posible que ya disponga de un conjunto de datos parcialmente etiquetado. Imaginemos que está etiquetando flores en fotos de ramos y quiere identificar cada flor. Tal vez ya tenga una parte de estas imágenes anotadas con tulipanes, girasoles y narcisos. Pero todavía hay imágenes en el conjunto de datos de entrenamiento que contienen tulipanes que no han sido anotados, y nuevas imágenes siguen llegando de tus fotógrafos.

¿Qué se puede hacer? En este caso, puede tomar todas las imágenes existentes en las que ya se han anotado los tulipanes y entrenar un modelo simple de detector de sólo tulipanes. Una vez que este modelo alcance una precisión suficiente, podrá completar automáticamente las anotaciones que falten sobre los tulipanes. Se puede seguir haciendo lo mismo con las demás flores. De hecho, puede recurrir a la colaboración de personas para que anoten sólo un pequeño lote de imágenes con una nueva flor específica, y eso debería ser suficiente para construir un detector específico que pueda anotar automáticamente el resto de las muestras. De este modo, se ahorra tiempo y dinero al no tener que anotar cada imagen del conjunto de entrenamiento o cada nueva imagen sin procesar. El conjunto de datos resultante puede utilizarse para entrenar un detector de producción más completo, capaz de detectar todos los tipos de flores. La anotación automática también le ofrece la posibilidad de seguir mejorando su modelo de producción mediante la anotación continua y automática de nuevos datos en bruto a medida que llegan. De este modo se consigue un ciclo cerrado de formación y mejora continuas.

Otro ejemplo es el de las anotaciones incompatibles. Por ejemplo, es posible que desee detectar posiciones 3D de cajas rectangulares a partir de imágenes de webcam, pero todo lo que tiene son puntos de referencia 2D para las esquinas visibles de las cajas. ¿Cómo estimar y anotar las esquinas ocluidas de cada caja, por no hablar de averiguar su posición en el espacio 3D? Pues bien, puede utilizar un modelo morphable de análisis de componentes principales (PCA) de una caja y ajustarlo a puntos de referencia 2D, y luego desproyectar la forma 3D detectada en el espacio 3D utilizando intrínsecos de la cámara. De este modo se obtienen anotaciones 3D completas, incluidas las esquinas ocluidas. Ahora puede entrenar un modelo que no requiera ajuste PCA.

En muchos casos se puede elaborar un algoritmo determinista convencional para anotar las imágenes. Claro que estos algoritmos pueden ser demasiado lentos para funcionar en tiempo real, pero no se trata de eso. Se trata de etiquetar los datos brutos para entrenar un modelo que pueda inferirse en milisegundos.

La anotación automática es una opción excelente para crear rápidamente un enorme conjunto de datos de entrenamiento, especialmente si los datos ya están parcialmente etiquetados. Sin embargo, al igual que ocurre con las anotaciones humanas, la anotación automática puede introducir errores y ruido. Considere cuidadosamente qué anotaciones deben descartarse basándose en una métrica de confianza o en alguna revisión humana, por ejemplo. Aunque incluya algunas muestras erróneas, es probable que el modelo generalice con éxito con un conjunto de entrenamiento lo suficientemente grande, y las muestras erróneas pueden filtrarse con el tiempo.

3. Datos sintéticos

Con los datos sintéticos, las máquinas se entrenan en renderizados o en simulaciones hiperrealistas: pensemos, por ejemplo, en un videojuego sobre los desplazamientos urbanos. En las aplicaciones de visión por computadora, muchos datos sintéticos se obtienen mediante renderizado, ya se trate de personas, coches, escenas enteras u objetos individuales. Los objetos 3D renderizados pueden colocarse en diversos entornos simulados para aproximarse al caso de uso deseado. Tampoco nos limitamos a los renderizados, ya que es posible producir datos sintéticos para simulaciones numéricas en las que el comportamiento de las variables individuales es bien conocido. Por ejemplo, el modelado de la dinámica de fluidos o la fusión nuclear es extremadamente intensivo desde el punto de vista computacional, pero las reglas se conocen bien: son las leyes de la física. Por tanto, si queremos aproximarnos rápidamente a la dinámica de fluidos o a las interacciones del plasma, primero podríamos producir datos simulados utilizando la computación clásica y, a continuación, introducir estos datos en un modelo de Machine Learning para acelerar la predicción mediante la inferencia ML.

Existen numerosos ejemplos de aplicaciones comerciales de los datos sintéticos. Por ejemplo, ¿qué pasaría si tuviéramos que anotar los recibos de compra de un minorista internacional a partir de recibos en papel escaneados sin procesar? Sin metadatos, tendríamos que revisar y anotar manualmente miles de imágenes de recibos para evaluar las intenciones del comprador y su significado semántico. Con un generador de datos sintéticos, podemos parametrizar las variaciones de un recibo y representarlas con precisión para producir imágenes sintéticas con anotaciones completas. Si descubrimos que nuestro modelo no funciona bien en un escenario concreto, podemos renderizar más muestras según sea necesario para rellenar los huecos y volver a entrenar.

Otro ejemplo real se da en la fabricación, donde los robots "pick-and-place" utilizan la visión por computadora en una cadena de montaje para empaquetar u ordenar y ensamblar productos y componentes. Los datos sintéticos pueden aplicarse en este escenario porque podemos utilizar los mismos modelos 3D que se usaron para crear moldes de inyección de los distintos componentes para hacer renderizaciones como muestras de entrenamiento que enseñan a las máquinas. Se pueden renderizar fácilmente miles de variaciones de dichos objetos volteándolos y rotándolos, así como simular diferentes condiciones de iluminación. Las anotaciones sintéticas serán siempre 100% precisas.

Aparte de la renderización, otro enfoque consiste en utilizar imágenes generadas por redes generativas adversariales (GAN) para crear variación en el conjunto de datos. El entrenamiento de los modelos GAN suele requerir un número decente de muestras en bruto. Con un autoencoder GAN completamente entrenado es posible explorar el espacio latente y ajustar los parámetros para crear variación adicional. Aunque es más complejo que los motores de renderizado clásicos, los GAN están ganando adeptos y tienen su lugar en el ámbito de la generación de datos sintéticos. No hay más que ver estos retratos generados de gatos falsos.

Elegir el enfoque adecuado:

El Machine Learning está en auge en todos los sectores y en empresas de todos los tamaños. Dependiendo del tipo de datos, la cantidad y la forma en que estén almacenados y estructurados, Valence puede recomendar un camino a seguir que podría utilizar una combinación de los enfoques de generación de datos y formación descritos en este post. El orden en que se aplican estos enfoques varía según el proyecto, y se reduce aproximadamente a cuatro fases:

  1. Puesta en marcha del proceso de formación. Esto incluye la recopilación o generación de datos de entrenamiento iniciales y el desarrollo de una arquitectura de modelo y un enfoque de entrenamiento. Puede que sea necesario realizar algún análisis estadístico (DOE) para determinar las mejores entradas para producir los resultados y predicciones deseados.
  2. Construir la infraestructura de formación. El acceso a la unidad de procesamiento gráfico (GPU) en la nube puede resultar caro. Aunque algunos modelos pueden entrenarse en hardware local al principio del proyecto, a largo plazo es deseable contar con una infraestructura de entrenamiento escalable y sin servidores, así como con una estrategia adecuada de gestión del ciclo de vida de los experimentos de ML.
  3. Ejecución de experimentos. En esta fase empezamos a entrenar el modelo, ajustando el conjunto de datos y experimentando con la arquitectura del modelo y los hiperparámetros. Recogeremos muchas métricas de los experimentos para medir las mejoras.
  4. Infraestructura de inferencia. Esto incluye integrar el modelo entrenado en su sistema y ponerlo a trabajar. Puede tratarse de una inferencia basada en la nube, en cuyo caso elegiremos el mejor enfoque sin servidor que minimice los gastos en la nube al tiempo que maximiza el rendimiento y la estabilidad. También puede ser inferencia en el borde, en cuyo caso puede que tengamos que optimizar el modelo para que se ejecute en una CPU de borde de baja potencia, GPU, TPU, VPU, FPGA o una combinación de ellas. 

Lo que me gustaría que todos los lectores entendieran es que estos modelos son sencillos en su sofisticación. Hay un proceso de descubrimiento al inicio de cada proyecto en el que identificamos las necesidades de datos de entrenamiento y qué arquitectura de modelo y enfoque de entrenamiento obtendrán el resultado deseado. Parece relativamente sencillo desencadenar una red neuronal en una gran cantidad de datos, pero hay muchos detalles a tener en cuenta a la hora de configurar los flujos de trabajo de Machine Learning. Al igual que la investigación física en el mundo real, el Machine Learning requiere la creación de un "laboratorio digital" que contenga las herramientas y materias primas necesarias para investigar hipótesis y evaluar resultados. El Machine Learning tiene tal variedad de aplicaciones realmente increíbles que es probable que haya un lugar para él en su organización como parte de su viaje digital.

Recursos adicionales:

Conjuntos de datos de entrenamiento en modelos de Machine Learning


Por Yuri Brigance

Me interesa especialmente cómo entrenar conjuntos de datos en modelos de Machine Learning.

La conferencia TC Robotics & AI de este año demostró que la robótica de consumo, impulsada por los últimos avances científicos en Machine Learning, se está convirtiendo rápidamente en un sector en auge con un gran interés por parte de los inversores. Casi todos los meses aparecen nuevas arquitecturas y técnicas de aprendizaje automático. Fue interesante ver cómo estos algoritmos se están utilizando para crear una nueva ola de tecnología de consumo, así como un gran número de ofertas de servicios que surgen para hacer que el Machine Learning sea más fácil de usar. La forma de entrenar conjuntos de datos en modelos de Machine Learning es cada vez más importante.

modelos de Machine Learning de superannotate.ai

Conjuntos de datos de entrenamiento

La formación de conjuntos de datos en Machine Learning es una de las prioridades notables de este nuevo ecosistema en expansión.

El Machine Learning depende de MUCHOS datos de entrenamiento. Crearlos no es tarea fácil. Muchos de ellos requieren un esfuerzo humano manual para etiquetarlos correctamente. Muchas empresas han surgido para ayudar a resolver este problema y hacer que la recopilación de datos y el etiquetado sean más rápidos y sencillos, en algunos casos automatizándolos por completo.

Aparte del etiquetado, la recopilación de estos datos de formación puede ser igual de difícil. Los coches autónomos son un ejemplo bien conocido: todos hemos oído hablar de ellos, e incluso puede que hayamos visto vehículos autónomos probándose en la vía pública. Sin embargo, puede sorprender que la mayoría de esos kilómetros recorridos no se utilicen para recopilar datos de entrenamiento.

Como explicaron Sterling Anderson, de Aurora, y Raquel Urtasun, de Uber, la mayoría de las tecnologías de conducción autónoma se entrenan en realidad en simulación. Las flotas autónomas ponen a prueba los modelos entrenados en el mundo real. En ocasiones, el sistema se desconecta y marca un nuevo escenario. La condición de desconexión se permuta miles de veces y pasa a formar parte de la simulación, proporcionando millones de kilómetros virtuales con fines de formación. Es rentable, escalable y muy eficaz.

Crear este tipo de simulaciones no es trivial. Para ofrecer la fidelidad adecuada, el mundo virtual no sólo debe tener un aspecto visual hiperrealista, sino que todos los datos de los sensores (lidar, radar y otros cientos) deben estar perfectamente sincronizados con el entorno virtual. piensa un simulador de vuelo, pero con gráficos mucho mejores. En muchos casos, también pueden simularse fallos de los sensores, y los sistemas de conducción autónoma deben ser capaces de hacer frente a la pérdida repentina de datos de entrada.

Los datos visuales son muy difíciles de etiquetar. Dejando a un lado la simulación, imagínese que se le encomienda la tarea de delinear todos los coches, seres humanos, gatos, perros, farolas, árboles, marcas viales y señales en una sola imagen. Y hay decenas de miles de imágenes que revisar. Aquí es donde entran en juego empresas como SuperAnnotate y ScaleAI.

SuperAnnotate es una herramienta que combina la segmentación basada en superpíxeles con la intervención humana para crear rápidamente máscaras de segmentación semántica. Imaginemos un ortomosaico tomado con un dron sobre un bosque con diversas especies de árboles: herramientas como esta permiten a un humano crear rápidamente contornos alrededor de los árboles pertenecientes a una categoría específica simplemente haciendo clic sobre ellos.

El enfoque de SuperAnnotate es interesante, pero probablemente no sea suficiente para todas las situaciones. Es útil para situaciones en las que se tienen bordes contrastados bien definidos alrededor de los objetos que se intenta segmentar, pero probablemente no funcionaría tan bien para líneas de separación menos definidas. Un buen ejemplo es cuando se quiere averiguar dónde termina el labio superior y dónde empieza la encía superior en retratos de personas sonrientes. Para ello, es probable que necesite una herramienta de etiquetado personalizada, algo que en Valence hemos creado en varias ocasiones.

ScaleAI adopta un enfoque diferente y se basa en una combinación de herramientas estadísticas, comprobaciones de Machine Learning y, lo que es más importante, humanos. Se trata de un concepto muy interesante: una especie de Mechanical Turk para el etiquetado de datos.

Así que rápidamente se hace evidente que la recopilación de datos y la formación son pilares totalmente separados de la industria del ML. Cabe imaginar un futuro en el que el nuevo "trabajo manual" sea etiquetar o recopilar datos. Se trata de un campo fascinante, ya que nos permite vislumbrar los tipos de nuevos empleos disponibles para las personas que ahora se encuentran con riesgo de quedar sin trabajo a través de la automatización. Pero recordemos: estos sistemas están distribuidos, por lo que incluso si consigues un trabajo como etiquetador de datos humano, puedes estar compitiendo con gente de todo el mundo, lo que tiene consecuencias inmediatas en tus ingresos.

Por otra parte, la creación de simulaciones y la búsqueda de formas de recopilar datos "difíciles" puede ser toda una ingeniería vertical por sí sola. Como desarrollador/artista de videojuegos, AR/VR o 3D en general, puede que tus habilidades sean muy aplicables en el mundo de la IA/ML. Un amigo mío encontró hace poco una aplicación que te permite calcular tu puntuación en Mahjong haciendo una foto a tus fichas. ¿Cómo entrenarías a un modelo para que reconociera esas fichas a partir de una foto, en distintas condiciones de luz y desde todos los ángulos? Podrías tomar minuciosamente fotos de las fichas e intentar etiquetarlas tú mismo, o podrías contratar a un artista 3D para que modele las fichas en 3D. Una vez que tenga modelos 3D realistas, puede hacer girar una serie de instancias EC2 ejecutando Blender (efectivamente una "granja de render" en la nube). Usando Python, puedes programar varias escenas (ángulos, luces, etc.) y usar el motor de trazado de rayos de Blender para generar miles de renders 3D pre-etiquetados de azulejos simulados en todo tipo de posiciones, ángulos, colores, etc.

Pero ¿y si tu tarea consiste en detectar condiciones meteorológicas (viento, lluvia, granizo, truenos, nieve) a través de un pequeño dispositivo IoT con tan solo un micrófono barato como sensor? ¿De dónde sacas todos los sonidos de entrenamiento para crear tu modelo? La búsqueda de sonidos en YouTube tiene un límite: al fin y al cabo, esos sonidos se graban con diferentes micrófonos, ruidos de fondo y condiciones variables. En este caso, puedes optar por crear dispositivos físicos diseñados específicamente para este tipo de recogida de datos. Pueden ser caros, pero pueden contener el conjunto de sensores necesario para grabar y etiquetar con precisión el sonido que buscas, utilizando los micrófonos que usarás en la producción. Una vez recogidos los datos, se puede entrenar un modelo y ejecutar la inferencia en un dispositivo de borde barato. Idear este tipo de técnicas de recopilación de datos puede ser un campo de ingeniería en sí mismo, y su ejecución requiere trabajo manual para desplegar estas técnicas sobre el terreno. Es un problema de ingeniería interesante, que sin duda dará lugar a una serie de servicios especializados y startups de consultoría.

En Valence contamos con el talento necesario para recopilar los datos que necesitas, ya sea mediante crowdsourcing, simulación (realizamos AR/VR internamente y contamos con artistas 3D de gran talento), utilizando herramientas de etiquetado existentes, creando herramientas de etiquetado personalizadas o construyendo dispositivos físicos para recopilar datos de campo. Somos capaces de establecer la infraestructura necesaria para reentrenar continuamente su modelo en la nube y desplegarlo automáticamente en la producción, proporcionando un ciclo cerrado de mejora continua.

Recursos adicionales

Inteligencia Artificial: ¿Hasta qué punto es inteligente?


¿Hasta qué punto es inteligente la IA?

¿Están preparados los ordenadores para dominar el mundo y subyugar a la raza humana, dada nuestra inferior inteligencia y capacidad de procesamiento? ¿Hasta qué punto es inteligente la inteligencia artificial?

Ha sido un tema importante de Hollywood durante décadas. ¿Quién no recuerda las escalofriantes palabras de 2001: Odisea en el espacio: "Lo siento, Dave. Me temo que no puedo hacerlo", cuando de repente se hace evidente que el superordenador HAL se ha vuelto loco.

O la ominosa escena de Bladerunner, cuando el "replicante" fugado Leon asesina al policía que le administra una prueba diagnóstica de su humanidad (o, en este caso, de su falta de humanidad).

Aunque la liberación de la inteligencia artificial en el mundo tuscita verdadera preocupación, gran parte del miedo mediático al apocalipsis de la inteligencia artificial es exagerado. E incluso si existen consideraciones tecnológicas y éticas válidas, la tecnología está todavía muy lejos de ese punto.

Así lo expresó Andrew Ng, el científico jefe de Baidu de 2014 a 2017, en una entrevista con Vox a principios de este año: "Preocuparse hoy por la IA asesina del mal es como preocuparse por la superpoblación del planeta Marte. Quizá algún día sea un problema, pero aún ni siquiera hemos aterrizado en el planeta." (Aunque sí cree que deberíamos pensar en cómo la IA desplazará a la mano de obra del mañana).

El poder de la inteligencia artificial y el Machine Learning

La realidad es que la inteligencia artificial y el Machine Learning (añadamos algunas siglas: IA y ML), son tecnologías increíblemente potentes. Son capaces de encontrar patrones en cantidades alucinantes de datos órdenes de magnitud más rápido que los humanos. Además, pueden aprender a reconocer objetos y predecir resultados, y mejoran con el tiempo. Así que, aunque no es probable que se conviertan en malvados asesinos de la humanidad, sí es probable que transformen, bueno, todo.

Cambiarán absolutamente la forma en que interactuamos con el mundo, a través del Procesamiento del Lenguaje Natural (Oye, Siri, llévame a casa.) y los sistemas de visión por computadora. Muy pronto podremos iniciar comandos de voz como "OK, Google, llévame a la montaña de esta foto". Facebook ya puede etiquetarte practicando ese vergonzoso movimiento de baile en la despedida de soltero de tu mejor amigo. O dando el discurso de apertura en una convención de la industria, para el caso.

Aplicaciones de la IA en todos los sectores

La IA y el ML automatizarán muchas de las tareas aburridas o repetitivas que las personas realizan ahora, lo que transformará la fuerza de trabajo del futuro. piensa asistentes virtuales que programen reuniones y envíen mensajes automáticos de seguimiento o recordatorios de citas.

Ya tenemos robots industriales gigantes que fabrican coches, y cada vez son más inteligentes, como saber cómo evitar lesiones a las personas o incluso programar tus propias puestas a punto para que no se averíen y provoquen paradas de trabajo costosas y perjudiciales.

La IA en la industria del automóvil

Los vehículos autónomos se basan en muchos de estos sistemas de IA encadenados: una serie de sensores -como cámaras de vídeo, LIDAR, sonar y sensores de movimiento- detectan el entorno y transmiten esos datos a los sistemas de procesamiento del coche, que los analiza y actúa en tiempo real. La tecnología avanza a una velocidad de vértigo, con inversiones de capital riesgo y adquisiciones de alto nivel que no dejan de ser noticia.

Aunque todavía faltan muchos años para que los vehículos sean totalmente autónomos, hay muchas funciones que utilizan tecnología de inteligencia artificial y que ya funcionan en los coches que circulan por las carreteras. Por ejemplo, el control de crucero adaptativo, la frenada automática de emergencia, el aviso de salida del carril, el asistente de mantenimiento de carril y los sistemas de aviso de colisión frontal, por citar algunos.

Aplicaciones de la IA en el cuidado de la salud

el cuidado de la salud también es un área increíblemente prometedora en lo que respecta a la IA y el Machine Learning. Watson Health, de IBM, extrae datos sanitarios para encontrar patrones que ninguna mente humana sería lo bastante poderosa para reconocer. Esto ayudará a acelerar el descubrimiento de fármacos, detectar fraudes a las aseguradoras y crear planes personalizados para mantener a la gente sana, entre otras innovaciones.

Innovaciones accesibles de IA basadas en la nube

Todo esto sonaba a ciencia ficción hace sólo unas décadas. Pero ahora la IA está entre nosotros y la velocidad de los descubrimientos se acelera. Esto se debe en parte a la disponibilidad de servicios de IA basados en la nube, como Lex y Rekognition de Amazon, que le permiten incorporar el reconocimiento de voz y vídeo a tus propios sistemas. O los servicios de IA de Microsoft, que permiten añadir análisis, reconocimiento de voz y Machine Learning. O el omnipresente Google Translate, que puede traducir textos, páginas web enteras e incluso la escritura del exterior de los productos envasados en múltiples idiomas de todo el mundo. Lo que antes sólo estaba al alcance de Google, Facebook y las superpotencias mundiales, ahora es accesible para todos.

Aproveche la IA para su empresa con Kopius

En Kopius trabajamos con nuestros clientes para ayudarles a aprovechar el increíble potencial de la inteligencia artificial y el Machine Learning para mejorar la experiencia de tus clientes, descubrir nuevas fuentes de ingresos y mejorar la eficiencia operativa y analítica. No es probable que las máquinas se apoderen del mundo a corto plazo, pero su enorme potencia de cálculo ayudará a las empresas a crecer y a obtener enormes beneficios en los próximos años. Nos encantaría mostrarle el camino. ¿Le interesa? Comunicate con nosotros y le ayudaremos a empezar.

Recursos adicionales:

Chatbots: Mucho más que una novedad

Chatbots: Mucho más que una novedad

La promesa de la Inteligencia Artificial y los chatbots ya está aquí.

Es cierto que los robots humanoides aún no vagan por la Tierra, pero las aplicaciones y los servicios basados en la inteligencia artificial están transformando el mundo que nos rodea en un ámbito más inteligente, interactivo y capacitado. ¿Busca un buen ejemplo? Pregúntele a Siri, Alexa, Cortana o CleverBot. Ellos, colectivamente, son la respuesta.

Siri de Apple, Alexa de Amazon, Cortana de Microsoft y Cleverbot de Google son ejemplos de chatbots: "un programa informático que mantiene una conversación a través de métodos auditivos o textuales". Algunos chatbots utilizan la capacidad de procesamiento del lenguaje natural para entender tu habla y responder verbalmente. Siri, de Apple, es quizá el ejemplo más famoso de este tipo de chatbot, aunque Alexa y Cortana también son muy utilizados. Otros chatbots se basan en texto y responden a preguntas, órdenes u observaciones escritas. Xiaoice, de Microsoft, por ejemplo, se lanzó en China en 2014 y, tan solo un año después, ya había sido utilizado por más de 40 millones de propietarios de teléfonos inteligentes (el 25% de los cuales, al parecer, habían dicho "te quiero" a su "amigo virtual", que está disponible en las dos plataformas de medios sociales más importantes de China: Weibo y WeChat).

Los chatbots han sido objeto de controversia (véase Tay, de Microsoft) y de burlas cómicas frecuentes (véase, por ejemplo, Siri). En general, mucha gente los considera poco más que una novedad, una forma divertida de que los consumidores interactúen con la tecnología. Pero son mucho más que eso. En pocas palabras, los chatbots son un poderoso ejemplo de la proliferación de la Inteligencia Artificial en la sociedad. Y sólo estamos arañando la superficie de tus capacidades.

Hasta la fecha, el panorama de los chatbots disponibles para consumidores y empresas ha estado dominado en gran medida por los titanes tecnológicos antes mencionados. Sin embargo, se está diversificando y dinamizando considerablemente, un fenómeno impulsado por el lanzamiento de numerosos marcos de chatbot para desarrolladores.

Los marcos de chatbot son esencialmente kits de desarrollo de software (SDK) para el universo de la IA. Proporcionan una plataforma -la infraestructura tecnológica- para que los desarrolladores creen chatbots que se adapten a tus necesidades. El lanzamiento de marcos como el Bot Framework de Microsoft y el Bot Engine de Facebook (wit.ai) significa que cualquier desarrollador, ya sea un aficionado o un proveedor de servicios profesional, puede construir un chatbot para mejorar su vida o la de los que le rodean.

¿Quieres crear un chatbot que te hable en la jerga del Capitán Garfio a tiempo para el Día de Hablar como un Pirata (19 de septiembre)? ¡Adelante! ¿Crees que tu empresa puede beneficiarse de un chatbot diseñado para proporcionar una forma más intuitiva de acceder y organizar los datos que impulsan tu éxito? ¡Constrúyelo!

...¡o déjenos construirlo! Valence entiende que los chatbots son más que una novedad; son una tecnología que cambia el paradigma y que puede transformar digitalmente los negocios de cualquier sector. Por eso los ponemos al servicio de nuestros clientes de forma que apoyen tanto tus objetivos estratégicos como tus tácticas cotidianas. Y por eso estamos deseando saber cómo podemos ponerlas a su servicio.

Recursos adicionales