Bienvenidos. En este informe explico algo sobre el video que hice acerca de cómo crear una aplicación de dibujo básica con TensorFlow.js, MediaPipe modelo de reconocimiento de manos y mi librería de WebComponents para simplificar el reconocimiento de objetos y acciones en consecuencia. El video es el siguiente. Primero creamos un proyecto web, simple, un documento HTML. Incorporamos en un Script la librería https://gorosito.red/componentes/ Insertamos el webComponent de etiqueta reconocer-manos. Agregamos dos atributos: DER="" e IZQ="", y cada uno apunta al nombre de una función que crearemos en un Script aparte. Cada función se dedica a reconocer puntos clave de la mano izquierda y de la derecha de la primera persona reconocida. Bueno, simplifiqué a la herramienta para que fuera una sola persona. Como función de tipo "callback" que son, se les pasa como parámetro un objeto, el mismo generado por TFjs, con tres factores: handedness (tipo de mano, string,
¡Hola! Vamos a aprender a reconocer objetos, colores o personas con Teachable Machine, y luego implementaremos una aplicación para activar algo con poco código. Breve intro Hasta noviembre de 2022, TensorFlow.js era la herramienta más destacada en la web para trabajar con Inteligencia Artificial. Sin embargo, ChatGPT y los Transformers llegaron para quedarse. Meses antes, Google Creative Labs lanzó Teachable Machine, una herramienta que permite entrenar una red neuronal utilizando la cámara web o el micrófono, y generar el código HTML para incluirlo en nuestra propia página web con ayuda de TensorFlow.js. Al mismo tiempo, yo aprendía a trabajar los Custom WebComponents, una API de HTML5 para generar con código HTML objetos de JavaScript. Y en esta semana, retomando un poco la librería que estoy construyendo, agregué el caso de Teachable-Machine. Veamos cómo trabajar con TM y cómo utilizarla a favor. A continuación: Videos sobre cómo utilizar Teachable Machine. Instalar librería de webC