Así se entrenó GPT‑4: revelaciones de 90 insiders que cambiarán tu visión
El proceso de entrenamiento de GPT‑4 ha sido siempre un misterio, pero gracias al trabajo de Karen Hao y su entrevista a más de 90 empleados de OpenAI, se han desvelado datos sobre las fuentes de datos desde GPT‑2 hasta GPT‑4. Saber cómo y con qué aprendió ofrece una comprensión fundamental para quienes desarrollan o analizan LLMs.
Las fuentes incluyen enormes colecciones de texto web, repositorios académicos, libros digitalizados y diálogos públicos. También se confirma la inclusión de comentarios de código, foros especializados y contenido técnico. Estas bases permiten al modelo manejar temas de programación, ciencia, historia y más con un nivel de versatilidad sin precedentes.
Técnicamente, la diversidad de datos garantiza una arquitectura de embeddings más robusta, con vectores semánticos más precisos. La combinación de dominio técnico y lenguaje cotidiano permite que GPT‑4 se comporte de manera coherente en una variedad de contextos. Y sí, también en esa receta de cocina o poema que le pediste, aunque tenga toda la pinta de haber sido escrito por Shakespeare con delirios de gastronomía.
Otro aspecto revelado es el uso de filtrados progresivos: primero se extrajeron datos generales, luego se aplicaron filtros de calidad (fluidez, coherencia, fuente) y finalmente se ajustó el modelo con curación humana. Este enfoque en fases asegura menos “alucinaciones” y más respuestas fiables para aplicaciones empresariales y científicas.
También se confirma el uso de datos privados bajo contrato (patentes, resúmenes corporativos) para entrenar versiones específicas, como GPT‑4 Turbo. Esto implica que algunas variantes del modelo están optimizadas para ciertos dominios, una estrategia habitual en soluciones empresariales que buscan precisión temática.
En definitiva, conocer la dieta informativa de GPT‑4 ayuda a comprender sus fortalezas, limitaciones y riesgos, especialmente en temas donde la calidad del dato es crítica. Esto nos deja algo claro: no hay magia, pero sí mucho café, talento humano y buenos filtros.
¡Boom! OpenAI prepara navegador integrado con agentes IA que cambiará el web
OpenAI ha anunciado el desarrollo de un navegador con agentes IA integrado, una solución que promete revolucionar cómo interactuamos con la web. Más allá de simples sugerencias de enlaces, este navegador funcionará como un copiloto conversacional capaz de ejecutar acciones, resumir contenidos y responder en tiempo real.
Desde el punto de vista técnico, el navegador incorporará modelos ligeros para tareas de resumen, extracción de datos y navegación guiada con un prompt conversacional. Esto supone un nuevo paradigma donde el usuario dialoga directamente con la web, delegando tareas como comparativas o búsquedas complejas a la IA.
Contará con la capacidad de ejecutar agentes multi-step: por ejemplo, además de buscar vuelos, podrá filtrar horarios, calcular precios y preparar comparativas en paralelo. Un enfoque mucho más fluido que abrir pestañas, copiar enlaces y recopilar resultados manualmente.
Otro aspecto clave es su integración con APIs web y endpoints MCP. Esto permitirá que los agentes interactúen directamente con otros servicios (calendarios, apps, traductores), eliminando la necesidad de copiar-pegar datos y mejorando automatizaciones.
Esto también podría impactar la privacidad: depender de un agente central implica nuevas formas de consentimiento y control de datos. OpenAI deberá equilibrar utilidad con transparencia y seguridad, sin que se convierta en un espía corporativo dentro de tu navegador.
En conclusión, el navegador con agentes de OpenAI representa una evolución disruptiva en la forma de usar internet: no más pestañas, sino conversaciones inteligentes con la web. Y sí, es posible que algún día le pidas que compre por ti… pero eso queda para otro artículo.
Amazon y Anthropic lanzan el primer marketplace de agentes IA: el futuro ya está aquí
Amazon ha anunciado el lanzamiento de un marketplace de agentes IA en colaboración con Anthropic, un hito en la comercialización de inteligencia artificial. Este marketplace permitirá a desarrolladores y empresas descubrir, desplegar y monetizar agentes especializados con facilidad.
Los agentes estarán disponibles a través de MCP (Model Context Protocol), lo que facilita su interoperabilidad con múltiples plataformas. Esto permitirá usar un agente para atención al cliente en Shopify y luego el mismo para gestionar tickets en ServiceNow, todo integrado sin complicaciones.
Los agentes cubrirán funciones como analítica de datos, gestión de inventarios, servicio al cliente y scripting técnico. Cualquier organización podrá seleccionar el agente adecuado, configurarlo y pagar por uso, sin necesidad de entrenar modelos desde cero.
Desde un punto de vista técnico, este marketplace democratiza el acceso a modelos especializados, ya que permite la integración de agentes edge, cloud o híbridos. Además, su modelo de pago por suscripción o consumo facilita la adopción por startups y medianas empresas.
El sistema también incluye métricas de rendimiento: tiempos de respuesta, tasas de éxito, coste por petición y satisfacción del usuario, lo que permite optimizar la operación y justifica inversiones en IA específica para cada uso.
Este lanzamiento de Amazon y Anthropic da un paso importante hacia una economía de agentes IA, donde no se compran licencias de software, se contratan habilidades. Y luego de ver lo rápido que evoluciona el ecosistema, solo puedo decir: ¡bienvenidos al futuro!
Claude podrá buscar en la web: ¿adiós a las respuestas polvorientas?
Anthropic ha anunciado que los modelos Claude incorporarán pronto una funcionalidad de búsqueda en la web, lo que permitirá actualizar respuestas y acceder a información en tiempo real. Esto corrige una limitación clásica de LLMs que operan solo con datos estáticos.
El agente podrá realizar llamadas HTTP bajo demanda, extraer contenido relevante, resumir resultados y ofrecer fuentes trazables, lo que mejora su utilidad para tareas que requieren datos al momento, como noticias, cotizaciones o información técnica precisa.
Por ejemplo, en una sesión de atención médica, Claude podrá buscar los últimos estudios, comparar dosis de fármacos y ofrecer referencias actualizadas, todo integrado en una sola conversación sin Copy/Paste manual.
Técnicamente, este agente combina un LLM con un backend de scraping/consulta web y filtros de calidad, para evitar spam, clickbait o páginas malintencionadas. Además, Anthropic ha diseñado sistemas de alineación para que Claude interprete correctamente fecha, fuente y confiabilidad.
Este avance es particularmente relevante para entornos empresariales que exigen trazabilidad: poder decir “La respuesta se basó en esta URL del 20 de julio de 2025” aporta transparencia y confianza a clientes y usuarios.
En definitiva, con búsqueda web integrada, Claude se convierte en un asistente híbrido: ya no solo un experto, sino también un navegador que sabe qué responde en cada contexto y momento. Y lo mejor: sin pestañas interminables.
Kimi K2 arrasa en benchmarks: el nuevo modelo open‑source que quiere destronar a los grandes
El lanzamiento de Kimi K2, un modelo open‑source especializado en tareas agentic y de código, ha generado gran expectación en la comunidad. Sus primeros resultados indican que ha superado a varios modelos comerciales en performance técnica, lo cual no es moco de pavo.
Kimi K2 destaca por su arquitectura modular que facilita la creación de agentes autónomos, capaces de interpretar prompts, tomar decisiones y ejecutar código en tiempo real. Este enfoque es ideal para aplicaciones como herramientas automáticas de depuración o asistentes de CI/CD.
Técnicamente, K2 ha sido evaluado en benchmarks de programación (HumanEval), razonamiento (GSM8K) y capacidad agentic (ToolBench), obteniendo puntuaciones competitivas con modelos cerrados y manteniendo un footprint mucho menor en GPU.
Además, al ser open‑source bajo licencia permisiva, las empresas pueden auditarlo, entrenarlo en datos propios y adaptarlo a sus necesidades. Esto representa una ventaja frente a soluciones propietarias donde la caja negra impide personalización extrema.
La comunidad ya ha comenzado a crear variantes ligeras y wrappers que integran K2 como backend de agentes en frameworks como LangChain o AutoGPT, lo que posiciona al modelo en un ecosistema vibrante y en expansión.
En resumen, Kimi K2 ha irrumpido con fuerza, demostrando que la ciencia abierta puede competir con las grandes empresas y ofreciendo una alternativa potente y transparente para quienes buscan controlar su stack de agentes IA.