Así han metido un ChatGPT funcional dentro de Minecraft con redstone

Última actualización: 02/10/2025
Autor: Isaac
  • El youtuber sammyuri ejecuta un pequeño LLM dentro de Minecraft usando solo circuitos de redstone.
  • El modelo, de unos 5 millones de parámetros, se entrenó fuera del juego y su inferencia ocurre íntegramente en el mundo de Minecraft.
  • La construcción ronda los 439 millones de bloques y utiliza trucos de renderizado y servidor para mostrar y acelerar, sin afectar a la lógica.
  • Es una demostración técnica: extremadamente lenta, pero valiosa para explorar la universalidad de la computación.

ChatGPT dentro de Minecraft con redstone

La comunidad de Minecraft vuelve a salirse del guion con un proyecto que roza lo imposible: un ChatGPT funcional construido dentro del juego. Nada de bloques de comando ni mods que hagan trampas; aquí todo se apoya en la lógica de redstone y en la paciencia infinita para levantar una maquinaria descomunal.

La gracia del invento está en que la ejecución del modelo de lenguaje se produce dentro del mundo de Minecraft. El entrenamiento ocurrió fuera, sí, pero la inferencia —la parte que genera las respuestas— se ejecuta con circuitos del propio juego, lo que ha captado la atención tanto de fans como de curiosos de la IA.

ChatGPT dentro de Minecraft: la proeza de sammyuri

El artífice es el creador conocido como sammyuri, que ha mostrado en su canal cómo ha llevado el redstone al límite para levantar un chatbot estilo GPT. El modelo ronda los cinco millones de parámetros: es minúsculo frente a las IAs modernas, pero dentro de Minecraft supone una gesta técnica de mucho nivel.

Para conseguirlo, el modelo se entrenó externamente (en Python) con un conjunto de datos pequeño —TinyChat— y después se tradujo su inferencia a lógica de redstone. Así, el aprendizaje vive fuera y la generación de texto sucede dentro, bloque a bloque, con miles de conexiones y señales que emulan la computación necesaria.

  Cómo cambiarte de nombre en Roblox

La escala del artilugio impresiona: aproximadamente 1.020 × 260 × 1.656 bloques, lo que se acerca a 439 millones de bloques en total. Para poder grabar la estructura completa recurrió a Distant Horizons (renderizado lejano) y, para acelerar pruebas, a un servidor de Minecraft de alta velocidad tipo MCHPRS; nada de ello altera la lógica: no hay bloques de comando ni mods funcionales en la computación del modelo.

Si te preguntas qué pinta aquí la redstone, piensa en compuertas lógicas y retardos: fuentes de alimentación, repetidores, comparadores y señales que se encienden y se apagan. Con esa caja de herramientas, la comunidad ya había construido calculadoras, unidades de memoria, CPUs o incluso versiones recursivas de Minecraft; ahora le ha llegado el turno a una red neuronal diminuta.

Qué ocurre por dentro de este «GPT» de redstone

El usuario introduce texto a través de la interfaz del chat en Minecraft y el circuito hace su magia, paso a paso. Hay búsqueda de incrustaciones, capas con pases feed-forward, multiplicaciones de matrices y un softmax aproximado para elegir el siguiente token. Es la misma idea de siempre, pero reimplementada en un sustrato poco habitual.

En lo técnico, el modelo usa una dimensión de incrustación de 240, un vocabulario de alrededor de 1.920 tokens, seis capas y una ventana de contexto de 64 tokens. La mayor parte de los pesos están cuantificados a 8 bits, mientras que las incrustaciones y la normalización por capas conservan mayor precisión para no perder el rumbo.

Rendimiento: fascinante, pero desesperadamente lento

La velocidad es, con perdón, glacial. Incluso forzando los ticks del servidor a ritmos muy elevador (~40.000× más rápidos que lo normal), obtener una respuesta puede llevar un par de horas. Si lo dejáramos a velocidad estándar de Minecraft, los cálculos hablan de más de nueve años para contestar una sola frase.

  Elon Musk anuncia Grokipedia, la enciclopedia con IA de xAI

Lejos de ser un problema, ese límite subraya el propósito del experimento: no busca utilidad práctica, sino demostrar posibilidad. La arquitectura, el medio físico y la velocidad son dimensiones distintas; lo relevante aquí es que la inferencia neuronal puede mapearse a casi cualquier sustrato lógico, incluido un mundo de cubos.

Reacciones y debate en la comunidad

El proyecto ha generado cobertura y discusión. Medios como Tom’s Hardware y comunidades como Hacker News han desgranado cifras, límites y compromisos del diseño. En Reddit conviven el asombro por la ingeniería con quienes cuestionan su “practicidad”.

También ha habido quien lo tacha de espectáculo, recordando que el entrenamiento se hizo fuera del juego. Cierto, pero aun así la pieza funciona como demostración educativa y artística: ilustra conceptos de IA, hace tangible la computación y despierta preguntas interesantes sobre dónde puede “vivir” un modelo.

Contexto y comparativas

Comparado con los gigantes actuales —GPT-2 con 1.500 millones de parámetros o GPT-3 con 175.000 millones—, esto es un juguete. Pero dentro de Minecraft, no pretende competir con modelos modernos; su objetivo es mostrar hasta dónde llega el ingenio cuando se combinan paciencia, diseño y límites autoimpuestos.

Levantar esta red neuronal en redstone ha requerido meses de trabajo meticuloso y una precisión casi quirúrgica: cada línea de redstone representa cómo fluye la información por los parámetros de un modelo, y cualquier error deriva en un comportamiento errático.

Lo que queda es un hito curioso: un ChatGPT funcional dentro de Minecraft que no rompe las reglas del juego y que, aunque inútil para el día a día, abre una ventana distinta para entender la computación y la IA, una de esas obras que hacen que mirar “de qué están hechos” los sistemas sea casi tan interesante como usarlos.

Artículo relacionado:
Que Es Un Server en Minecraft