Actualidad y Noticias IA - Septiembre 2025, semana del 7 de Septiembre

Actualidad y Noticias IA - Septiembre 2025, semana del 7 de Septiembre

¿OpenAI usa Google vía SerpAPI? La polémica que remueve al motor

Recientemente se ha desatado una polémica: se sospecha que OpenAI estaría utilizando Google como motor de búsqueda mediante SerpAPI, lo que plantea dudas sobre la independencia de ChatGPT y su capacidad para indexar información sin intermediarios.

Técnicamente, si fuese cierto, esto implicaría que las respuestas de ChatGPT estarían parcialmente condicionadas por los resultados en tiempo real de Google, lo que podría introducir sesgos o dependencias externas no explícitas en la generación de contenido.

Desde una perspectiva de diseño, el uso indirecto de APIs de terceros podría ahorrarle a OpenAI costes de infraestructura, pero también incrementa los riesgos de privacidad y posibles discontinuidades si el servicio externo cambia o limita el acceso.

El ecosistema de agentes obliga a debatir sobre la transparencia del sistema: ¿queremos agilidad de respuesta a costa de depender de motores ajenos o preferimos respuestas completas basadas en conocimiento entrenado internamente?

En el mercado, esto genera tensión respecto a la confiabilidad de los LLMs, especialmente cuando la precisión y legitimidad de las respuestas son críticas para áreas como educación, salud o regulación.

La reflexión queda abierta: ¿preferimos una IA rápida y dependiente o una IA costosa pero autónoma? El debate ya ha empezado, y parece que la búsqueda de respuestas claras también genera preguntas.

 

Las 100 apps de IA más usadas: un vistazo al universo asistente

Se ha publicado un ranking actualizado con las 100 apps de IA más usadas, que abarca desde asistentes conversacionales hasta generadores de contenido, editores de texto y herramientas de productividad. Este listado revela patrones en adopción de tecnologías emergentes.

PosiciónAppUsuarios activos mensuales
1ChatGPT546 M
2Quark149 M
3Doubao107 M
4DeepSeek96.9 M
5Nova71.5 M
6Yuanbao41.4 M
7Genius40.9 M
8Talkie AI34.9 M
9Remini33.3 M
10Character AI31.9 M

Técnicamente, ver una diversidad tan amplia de aplicaciones muestra cómo los LLMs se están integrando en múltiples niveles del ecosistema digital: procesamiento de texto, automatización, análisis de datos, creación visual y más.

Muchas de estas aplicaciones funcionan como agentes asistenciales, ofreciendo interfaces conversacionales que permiten ejecutar tareas sin escribir código: traducir, resumir, analizar, automatizar… un verdadero ecosistema IA al alcance de un prompt.

Este estudio también muestra la predominancia de modelos multilingües y multimodales, que comprenden texto, audio e incluso imágenes. Parece que ya no basta con entender en inglés: se requiere versatilidad y adaptabilidad cultural.

En términos de mercado, el ranking refleja tanto productos del ecosistema OpenAI, Anthropic o Google, como decenas de soluciones emergentes de startups, poniendo de manifiesto la competencia creciente en agentes IA accesibles.

En resumen, la lista de las 100 apps más usadas es un termómetro que muestra hacia dónde avanza la IA del día a día: asistentes cada vez más inteligentes, flexibles y omnipresentes. A veces te ayuda más que tu vecino.

 

Semáforos inteligentes: Madrid se pone en verde con la IA

La capital española se ha convertido en pionera en la implementación de semáforos inteligentes gestionados por inteligencia artificial. Estos dispositivos analizan en tiempo real el tráfico y ajustan los tiempos de luz verde y roja para mejorar la fluidez. El objetivo es reducir atascos, ahorrar combustible y, de paso, disminuir esos minutos eternos mirando cómo el peatón del otro lado de la calle aún no pulsa el botón.

La clave de estos semáforos está en su capacidad de análisis mediante visión computacional y modelos predictivos. Capturan imágenes del flujo de coches y peatones, procesan la información en servidores locales y deciden el patrón óptimo de cambios. Esto supone un salto frente al sistema tradicional, basado en temporizadores rígidos que no se adaptan a la realidad cambiante del tráfico urbano.

El impacto medioambiental es uno de los mayores beneficios. Según los primeros datos publicados, la optimización del flujo gracias a esta automatización puede reducir en un 20% las emisiones contaminantes en zonas congestionadas. En otras palabras: la IA no solo dirige coches, también puede ser la aliada más inesperada de los pulmones madrileños.

Pero no todo es tan simple. La dependencia de algoritmos plantea dudas sobre la seguridad en caso de fallos. ¿Qué ocurre si el sistema se queda colgado? ¿Un atasco monumental o un episodio caótico de coches discutiendo con peatones? Las autoridades insisten en que existen protocolos de respaldo, aunque la confianza total todavía está en rojo intermitente.

El componente de machine learning también permitirá que estos semáforos aprendan de los patrones históricos y se ajusten a eventos concretos: desde partidos de fútbol en el Bernabéu hasta manifestaciones improvisadas. En ese sentido, no es descabellado pensar que Madrid podría tener los primeros semáforos “fanáticos” de algún equipo, abriendo paso solo cuando juega en casa.

Aunque el despliegue está en fase piloto, la idea es expandir estos sistemas a más cruces de la ciudad y, posteriormente, a otras urbes de España. Si todo funciona, tal vez el clásico “me he quedado en un atasco” deje de ser excusa válida para llegar tarde al trabajo.

 

Nano-banana: Google se come la competencia en imágenes

Google ha sacudido el tablero con su nuevo modelo Nano-banana, un sistema de generación y edición de imágenes que ya está siendo considerado el más avanzado hasta la fecha. Con un nombre tan peculiar como ambicioso, promete redefinir lo que significa crear contenido visual con IA.

Lo que diferencia a Nano-banana es su capacidad de mantener consistencia en múltiples elementos dentro de una misma imagen, incluso cuando se utilizan varias referencias. En la práctica, esto permite construir escenas mucho más realistas y detalladas que las de modelos anteriores.

El modelo también destaca por su integración multiplataforma. Desde Vertex AI hasta Gemini y AI Studio, Google ha apostado por hacerlo accesible en prácticamente todo su ecosistema. Esto facilitará que empresas y creadores lo adopten sin fricciones técnicas innecesarias.

En términos técnicos, Nano-banana aprovecha innovaciones en difusión y entrenamiento masivo, lo que le permite generar imágenes de altísima calidad a un coste computacional más bajo. Una jugada inteligente que refuerza la posición de Google frente a rivales como Midjourney o Stability AI.

La comunidad ya ha empezado a experimentar con usos creativos: desde campañas publicitarias hiperrealistas hasta proyectos de arte digital donde la coherencia en los detalles es fundamental. El hype está justificado, y el nombre del modelo se ha convertido en trending topic inesperado.

¿Qué sigue? Probablemente una oleada de memes y chistes con plátanos, pero también un serio reconocimiento de que Google ha conseguido algo que hasta hace poco parecía ciencia ficción: un modelo de IA para imágenes que no solo impresiona, sino que se integra de forma práctica en el flujo de trabajo diario.

 

DeepSeek 3.1: ahora con modo razonador—más allá del texto plano.

DeepSeek ha lanzado su modelo 3.1, incorporando un modo razonador que permite al asistente pensar en pasos antes de generar una respuesta, elevando la calidad lógica y estructural de sus respuestas.

La arquitectura separa los pasos de comprensión, planificación y ejecución, lo que evita errores comunes y comunica soluciones más claras y coherentes.

En benchmarks preliminares, DeepSeek 3.1 ofrece resultados cercanos a modelos cerrados, con la ventaja de ser accesible, eficiente y transparente.

Es ideal para atención al cliente, soporte técnico o entornos educativos donde la claridad y consistencia importan más que la velocidad.

Este lanzamiento consolida a DeepSeek como una alternativa fuerte y abierta para usuarios que buscan modelos razonadores sin altos costos ni licencias propietarias.

Resumiendo: DeepSeek 3.1 no solo habla; también piensa antes de contestar. Inteligencia práctica al alcance de todos.

 

Anthropic rompe la banca: 13B para reforzar sus LLMs

Anthropic, la compañía detrás del popular Claude, acaba de cerrar una ronda de financiación de 13 billones de dólares, un hito que cambia las reglas del juego en el ecosistema de la IA. Con este capital, la empresa se posiciona como uno de los actores más sólidos frente a gigantes como OpenAI o Google DeepMind.

El dinero no es solo músculo financiero, también es garantía de infraestructura. Anthropic planea destinar buena parte de la inversión a potenciar sus centros de datos y entrenar modelos cada vez más sofisticados, con un énfasis especial en seguridad y alineación. Porque un LLM sin control puede ser tan caótico como darle las llaves de tu coche a un adolescente.

Una parte clave de esta expansión será el desarrollo de nuevas interfaces que faciliten la interacción entre empresas y los modelos Claude. Se espera que estas mejoras permitan a los clientes integrar agentes conversacionales en sectores como banca, salud y administración pública, donde la precisión y el contexto no son opcionales, sino vitales.

El movimiento también impacta en la carrera por el liderazgo de los LLMs. Con OpenAI dominando gran parte del mercado y Mistral pisando fuerte desde Europa, Anthropic busca consolidarse como “la alternativa ética”. Si lo consigue, podríamos estar hablando del inicio de un oligopolio más que de una guerra abierta.

Los críticos señalan que esta avalancha de dinero puede alimentar una burbuja de expectativas. Pero lo cierto es que, con inversiones de tal magnitud, la IA dejará de ser un experimento de laboratorio para convertirse en infraestructura estratégica a nivel global.

La pregunta que queda en el aire es clara: ¿logrará Anthropic transformar esos 13B en valor real y aplicaciones útiles, o será otro ejemplo de cómo la innovación se queda atrapada en presentaciones de PowerPoint demasiado optimistas?