UD3 FUNDAMENTOS DE LA IA

Con esta práctica aprenderemos cómo una inteligencia artificial percibe, representa, aprende y actúa.
Las máquinas reciben datos mediante sensores, los representan como números, aprenden patrones con algoritmos y responden a través de actuadores.

Para “aprender”, la IA necesita conjuntos de datos suficientes y variados para entrenar un modelo. La calidad de esos datos afecta directamente a la precisión y fiabilidad del sistema. Por eso, además de entrenar, hay que evaluar resultados y reflexionar sobre limitaciones y mejoras.

En esta práctica se integra el ciclo completo:

  • Cámara de la tableta como sensor que captura imágenes.
  • Teachable Machine para entrenar un modelo de clasificación de gestos.
  • micro:bit como actuador que muestra el icono reconocido.

Entrenar una IA que reconozca los gestos de piedra, papel y tijera y conectarla con una micro:bit para visualizar el resultado. Trabajarás la representación de datos (CA3.3), la diferencia algoritmo vs. modelo (CA3.4), la recogida/organización de datos (CA3.5) y el análisis y evaluación crítica del rendimiento (CA3.6).

  • Crear una carpeta compartida con este esquema:

/UD3P2_ColorDeGrupo/
    /Piedra (imágenes de manos en piedra)
    /Papel (imágenes de manos en papel)
    /Tijera (imágenes de manos en tijera)
    /Nada (imágenes que no son parte del juego)
    /Modelo (enlace del modelo)
    /Codigo_MakeCode (archivo .hex)
    /Evidencias (vídeo corto de la demo)
    UD3P2_ColorDeGrupo_HojaDeDatos.docx
  • Imágenes y hoja de datos deben guardarse aquí.
  • En la hoja de datos, cada integrante escribe en un color distinto: azul, negro y verde.
  1. Conjunto de datos organizado en subcarpetas (≥100 imágenes por clase).
  2. Enlace del modelo exportado (teachable machine).
  3. Programa de micro:bit (MakeCode): exportado en formato .hex.
  4. Evidencia de funcionamiento: breve vídeo de la demo.
  5. Hoja de toma de datos y observaciones (un único archivo del grupo, con colores por persona).

Entrenamos una Inteligencia Artificial para reconocer los gestos del juego Piedra, Papel y Tijera utilizando Teachable Machine y micro:bit.

CA3.3 – Comprender cómo se representan los datos en los sistemas computacionales

Entender cómo un ordenador “ve” una imagen como números (píxeles y valores de color) y qué límites tiene esta representación.

  • Revisad qué guarda realmente la cámara: matriz de píxeles con valores RGB.
  • Observad una imagen ampliada para identificar píxeles visibles.
  • Anotad dos límites de la representación digital (luz, resolución, ruido, ángulo…).
  • Relacionadlo con el modelo: las matrices numéricas son la entrada real al aprendizaje.

Tableta para sacar hacer el BDD (banco de datos) de fotos.

CA3.4 – Diferenciar algoritmo para resolver problemas y algoritmo para aprender un modelo

Distinguir entre un algoritmo fijo (programado paso a paso) y un modelo aprendido a partir de datos.

  • Identificad en la práctica:
    • Algoritmo fijo: programa de MakeCode que, si recibe “piedra”, muestra el icono de piedra, etc.
    • Modelo aprendido: Teachable Machine que clasifica imágenes nuevas.
  • Explicad ventajas y riesgos del aprendizaje automático (mejora con datos vs. errores por sesgo).

CA3.5 y CA3.6 – Recoger, analizar y evaluar datos en un modelo de IA

Saber recoger y organizar datos, entrenar, analizar resultados y evaluar la precisión, proponiendo mejoras.

Fase 1. Plan de capturas (Datos)

  • Clases: Piedra, Papel, Tijera, Nada.
  • Mínimo 100 imágenes por clase, variando persona, distancia, ángulo y luz.
  • Privacidad: solo manos, fondo neutro; no caras.

Fase 2. Captura y organización

  • Guardad las fotos en las subcarpetas correspondientes.
  • Comprobad variedad y equilibrio entre clases.

Fase 3. Entrenamiento del modelo

  • Teachable Machine → Entrenar.
  • Revisad la previsualización de probabilidades por clase.

Fase 4. Integración con micro:bit

  • Exportar el modelo a la nube y copiar el enlace.
  • MakeCode: configurar Serial USB a 9600, crear variable, leer cadena y comparar texto (“piedra”, “papel”, “tijera”, “nada”) para mostrar iconos.
  • Conectar y probar.

Fase 5. Protocolo de pruebas

  • Diseñad un test de 20 intentos cruzados (personas y luces distintas).
  • Registrad para cada intento: gesto esperado, resultado mostrado y observaciones.

Fase 6. Análisis y evaluación

  • Calculad un porcentaje de acierto por gesto y global.
  • Detectad errores frecuentes y causas probables.
  • Proponed dos mejoras (más ejemplos, fondo, iluminación, distancia, encuadre…).
  • Reentrenad, repetid 10 intentos y comparad.

Fase 7. Evidencias y comunicación

  • Subid vídeo breve o fotos de la demo funcionando.
  • Completad la hoja de datos con conclusiones y mejoras decididas.
  • Carpeta compartida con estructura correcta y todas las subcarpetas.
  • BDD imágenes por clase con cantidad y variedad garantizada.
  • Enlace del modelo guardado en /Modelo.
  • Programa MakeCode funcionando: comparación por cadenas y visualización de iconos.
  • Evidencia de demo (vídeo o fotos) en /Evidencias.
  • Hoja de datos cumplimentada: tres colores para autorías, respuestas razonadas.
  • Conclusiones claras: porcentajes, errores detectados y mejoras propuestas.
  • Capturad solo manos. No se permiten rostros ni información personal.
  • Fondo preferible uniforme y luz suficiente.
  • Paradas técnicas: desconectad la micro:bit antes de manipular cables.
Excel. (2023). Rúbrica 4ºIA CA3.3/3.4 [Elaboración propia]. Microsoft Office Professional 2021