Actualidad y Noticias IA - Junio 2025, semana del 4 de Agosto

Actualidad y Noticias IA - Junio 2025, semana del 4 de Agosto

2.500 millones de prompts al día! Lo que revela el volumen de interacción con ChatGPT

OpenAI ha desvelado que los usuarios de ChatGPT envían más de 2.5 mil millones de prompts diarios a nivel global, de los cuales 330 millones provienen solo de EE. UU.

Desde un punto de vista técnico, esta escala implica desafíos de latencia, infraestructura distribuida y gestión del costo por token. El uso masivo de frases cortas o palabras de cortesía como “por favor” agregan un coste no trivial a OpenAI, lo que se traduce en ingeniería eficiente al inyectar lógica en los prompts.

El volumen alto también realza la importancia del cacheo de prompts frecuentes, clusterización semántica y modelos ligeros para respuestas simples. Ver que tantos usuarios usan GPT-4 para cosas cotidianas deja claro que ya no es solo un chatbot, sino una API global que procesa decisiones pequeñas a gran escala.

Este ecosistema tan activo requiere modelos robustos, tolerantemente distribuidos y auditables. Además, el crecimiento exponencial obliga a pensar en estrategias de throttling, cuotas y contabilidad token a token, tanto por estabilidad como por control financiero interno.

En resumen, 2.5 mil millones de prompts al día es mucho más que un número: es una declaración de que los LLMs ya son una plataforma de interacción masiva y continua. Y que sí, quizá GPT-4 ya sabe más sobre tus memes que tú mismo.

 

ChatGPT Agent ya disponible: el asistente que piensa, actúa y hasta pasea tu gato

OpenAI ha lanzado oficialmente el modo agente en ChatGPT, combinando Operator, Deep Research y otras herramientas en una única funcionalidad. Disponible para usuarios Pro, Plus y Teams, el agente puede utilizar navegador web, terminal, ejecutar código, crear informes, editar hojas de cálculo e incluso preparar diapositivas.

Desde un enfoque técnico, el agente activa un entorno virtual donde ejecuta acciones autónomas, solicita permisos para operaciones sensibles y narra en pantalla qué está haciendo. Esto facilita tareas complejas multietapa, como planificación de eventos o análisis competitivo, todo dentro de la ventana de ChatGPT.

Gracias a conectores como navegador y archivos, el sistema puede automatizar flujos de trabajo completos: desde leer el correo hasta generar un resumen ejecutivo. Todo ello sin que el usuario tenga que copiar, pegar o memorizar comandos. Sí, parece mágico, pero es pura ingeniería de agentes inteligentes.

OpenAI también ha introducido medidas de control: el usuario puede interrumpir el agente en cualquier momento, cancelar tareas o retomar control manual. Esto reduce el riesgo de errores automatizados o acciones no deseadas, manteniendo la experiencia alineada con los objetivos del usuario.

En resumen, ChatGPT Agent marca un antes y después: una transición de solo responder preguntas a realizar tareas por ti. Solo falta que también pueda pasear a tu gato. Y quién sabe, quizá dentro de poco lo anuncien como servicio completo.

Lovable lanza su Agent Mode: virtual assistant que desarrolla por ti sin despeinarte

Lovable acaba de activar su  Agent Mode en versión beta, habilitando a su plataforma para pensar, planificar y ejecutar acciones de forma autónoma. La IA ahora puede desglosar ideas complejas en tareas, escribir código, gestionar bases de datos y supervisar progreso en producción.

A nivel técnico, este modo permite a Lovable mantener contexto conversacional, autogenerar código visual y backend, y reajustar según errores detectados. La IA actúa como un desarrollador junior hiperactivo que no se cansa… de momento no pide sueldo ni cafés.

Lovable Agent puede crear full‑stack apps desde prompts en lenguaje natural, integrando APIs de Stripe, Supabase o Figma. Genera autenticación, lógica backend y frontend, todo sin que el usuario toque una línea de código. Ideal para MVPs rápidos o prototipos funcionales.

Además, la plataforma actúa como gestor de tareas: crea tareas, asigna etapas, valida errores y actualiza automáticamente el tablero del proyecto. Esto permite colaboraciones fluidas y seguimiento similar a un Scrum automatizado por IA.

En resumen, Lovable Agent redefine la productividad sin código: convierte ideas en apps reales con autonomía y seguimiento. Pensar que este agente haga todo el trabajo por ti aún suena a ciencia ficción… pero Lovable está acercándola a la realidad.

Alibaba presenta Qwen 3: los modelos chinos que ahora compiten con OpenAI y Google

Alibaba lanzó la familia Qwen 3, una nueva generación de modelos de IA con capacidades híbridas de razonamiento y generación multimodal. Incluye versiones densas y de activación parcial (MoE), con tamaños que van desde 0.6B hasta 235B parámetros.

Técnicamente, Qwen 3 combina comprensión de lenguaje, matemáticas, codificación y razonamiento estructurado. Ha sido evaluado frente a modelos como DeepSeek‑R1, GPT‑4o y Llama‑3, mostrando rendimiento competitivo en benchmarks estándar como HumanEval y GSM8K.

La familia Qwen también incluye modelos orientados a visión y audio, como Qwen2.5-Omni, que acepta múltiples modalidades de entrada y salida, similar a GPT‑4o. Su naturaleza open‑source bajo licencia Apache 2.0 facilita adopción y personalización por parte de la comunidad global.

Desde un punto de vista práctico, organizaciones pueden desplegar Qwen 3 en servidores locales o nube Alibaba, ajustar versiones según recursos y adaptar agentes IA para tareas específicas sin depender de modelos propietarios. Y no olvidemos su precio bajo y transparencia de código.

En resumen, Qwen 3 representa un salto cualitativo en la competencia global de IA: demuestra que una empresa china puede liderar con modelos abiertos, potentes y accesibles. ¿El futuro AGI? Quizás no, pero indica que el monopolio ha sido roto.

Seguridad inestable: estudio revela vulnerabilidades críticas en LLMs populares

Una investigación reciente reveló que el 55 % del código generado por LLMs contiene vulnerabilidades reconocidas, como inyección SQL o XSS. Modelos evaluados incluyeron GPT‑4, Claude y varias soluciones open‑source en más de 80 tareas de codificación.

En paralelo, otro estudio académico documentó cómo ataques de jailbreak y prompt injection permiten que LLMs omitan salvaguardas y generen instrucciones peligrosas. Estos exploits destacan que los modelos actuales aún no cuentan con defensas robustas frente a manipulaciones sofisticadas.

Desde una perspectiva técnica, los principales riesgos están en modelos con memoria a largo plazo y habilidad multimodal, donde instrucciones ocultas pueden desencadenar comportamientos indeseados. La mitigación requiere filtrado semántico, red teaming y políticas de alineación más estrictas.

La adopción generalizada de LLMs empresariales sin auditorías rigurosas expos una superficie de ataque significativa: fugas de datos, generación de malware o desinformación contextual. Estos riesgos no son una abstracción, sino realidades emergentes documentadas en entornos de producción.

La conclusión es clara: si bien los LLMs ofrecen productividad y automatización, también pueden ser armas de doble filo si no se gestionan con seguridad. Y aunque suene gracioso imaginar un GPT diseñando virus, la realidad es menos divertida si alguien lo usa para hacerlo.