Una intensa movilización policial se registró entre el jueves y el viernes en la franja fronteriza entre Ciudad Juárez, Chihuahua y El Paso, Texas tras reportes de ataques armados contra agentes de la Oficina de Aduanas y Protección Fronteriza de Estados Unidos (CBP), confirmaron las autoridades locales.
De acuerdo con información de la Secretaría de Seguridad Pública Municipal (SSPM), sujetos que intentaban cruzar de manera ilegal hacia territorio estadounidense fueron los responsables de la movilización.
“Hubo unos llamados donde se escucharon unas detonaciones con la patrulla fronteriza y ahora existe un operativo en el marcador 5, estamos trabajando en conjunto con la patrulla fronteriza a ver qué fue lo que sucedió”, informó César Omar Muñóz, secretario de Seguridad Pública.
Operativos en ambos lados de la frontera
Tras la agresión, se desplegaron agentes de la Policía Municipal, Ejército mexicano y Guardia Nacional en diversos puntos del borde fronterizo, mientras que del lado estadounidense, la CBP activó protocolos de seguridad reforzados con patrullaje terrestre y aéreo.
Del lado de Estados Unidos se reportaron personas detenidas; mientras que en la parte mexicana policías solicitaron una orden de cateo para entrar a un domicilio, donde presuntamente se escondían los responsables.
El hecho ocurre en medio de la tensión fronteriza marcada por recientes alertas en Estados Unidos sobre un posible incremento de violencia en la región, así como por el aumento de operativos de ambos gobiernos para contener el tráfico de personas y drogas, con presencia de helicópteros y vehículos tácticos en el muro que divide a los dos países.
“Ciudad Juárez, o la zona norte del país, ha sido víctima de violencia que tiene que ver con el tráfico de personas, narcotráfico, contrabando, entre otras cosas, pero es un nivel de violencia que se ha mantenido a niveles estables. Yo no veo que se haya recrudecido” comentó Óscar Maynez Grijalva, profesor de la Universidad Autónoma de Ciudad Juárez.
En semanas previas, se reportaron detonaciones y persecuciones vinculadas al tráfico de migrantes, además de un caso en el que se denunció un disparo proveniente del lado estadounidense, aún sigue bajo investigación.
Tremendo revuelo causó la actriz Geraldine Bazán durante su más reciente aparición ante los medios de comunicación para la presentación de su nuevo proyecto en televisión: el melodrama “Mi verdad oculta”. ¿La razón? La mexicana lució un despampanante atuendo digno de pasarela que demostró por qué es considerada una de las mujeres más bellas de México.
Lista para el arranque de su nueva aventura en la pantalla chica, la histrionisa optó por dar inicio a esta etapa con un look de infarto que acentuó sus curvas y evidenció los resultados de su intensa rutina de ejercicio.
Se trató de un elegante vestido de seda en color morado, con cuello halter y espalda descubierta, que dejó poco a la imaginación. El corte largo y ceñido de la pieza creada por el diseñador Trino Orozco se encargó de resaltar su figura de ‘reloj de arena’. Accesorios plateados como anillos y un brazalete fueron el complemento perfecto para su propuesta en moda.
Geraldine Bazán dio todo el protagonismo a su vestido al portar un beautylook natural, caracterizado por una piel fresca, bronceada y con apenas un toque de rubor. Su mirada ojiazul resaltó gracias a unas sombras neutrales y pestañas tupidas, mientras que su larga cabellera rubia se lució en ondas suaves.
“A veces el reflejo revela más de lo que dejamos ver”, escribió la famosa para acompañar la publicación en Instagram con la que documentó su detrás de escenas del evento donde festejó el próximo lanzamiento de “Mi verdad oculta”.
En respuesta, miles de ‘me gusta’ y comentarios hicieron su debut bajo el post, felicitando a Bazán por un logro más a nivel profesional, así como por su porte y elegancia al vestir: “Demasiado bella, me encantó tu interpretación”, “Eres una muy buena actriz, con trayectoria, con preparación, por eso le va bien a tus personajes. Estás muy bella” y “Tu belleza es incomparable, inigualable e inalcanzable, mi amor”, son algunos de los mensajes de sus fans.
“Mi Verdad Oculta” está encabezada por David Chocarro, Susana González y Andrés Palacios; se transmitirá a partir del lunes 10 de noviembre a través de la plataforma de streaming de TelevisaUnivision para usuarios en Estados Unidos y a las 18:30 por la señal de Las Estrellas para el público mexicano.
Una ex bailarina convertida en abogada presenta demandas civiles contra cinco clubes de striptease de Nueva York y sus gerentes por presuntamente traficarla y permitir que clientes la violaran y golpearan.
“Cuando bailaba, vi cómo los clubes aceptaban dinero para hacer la vista gorda ante lo que me ocurría a mí y a otras bailarinas”, declaró Christine DeMaria al The Post, detallando el comportamiento violento que presuntamente sufrió mientras trabajaba en salones VIP “privados” en Manhattan.
“Me mordieron encima del seno izquierdo con tanta fuerza que sangré. Fui agredida sexualmente por clientes mientras estaba en el escenario. Un tipo me ahorcó con un cinturón alrededor del cuello y luego me violó contra una pared. Me despidieron por reportar una violación”, afirmó la mujer de 37 años.
DeMaria creció en Nueva Jersey y a los 15 años fue traficada a Arizona por un hombre mayor que la había estado preparando, según dijo. Para 2014, ya se dedicaba al striptease.
“Me despidieron por reportar una violación en un club, y mientras me despedían, el gerente me dijo: ‘Eres una stripper. Tú pediste esto’. Por supuesto que no pedí que me violaran”.
Afirmó que en varias ocasiones le abofetearon la cara con tanta fuerza que su piel quedó enrojecida.
“En la industria de los clubes de striptease, las bailarinas a menudo se ven obligadas a elegir entre aceptar el abuso sexual o irse sin medios para sostenerse”, declaró.
“Una y otra vez, fui testigo de cómo los dueños y gerentes de clubes de striptease ignoraban por completo la vida humana”.
Dejó el escenario definitivamente en 2021 y decidió estudiar derecho, asistiendo a la Facultad de Derecho de Nueva York.
Mientras aún estaba en la facultad de derecho, DeMaria lanzó una organización sin fines de lucro llamada Switch, o Sex Workers in Transition Compassion Home, que busca proporcionar a las bailarinas “educación, orientación profesional y una verdadera salida si la desean”.
En 2023, DeMaria fue reconocida con el David Prize de la Walentas Family Foundation, que otorga $200,000 a cada uno de cinco neoyorquinos “visionarios” anualmente.
“En una industria que pone precio a las personas, Christine visualiza una Nueva York donde las personas puedan ser invaluables”, según el perfil en línea del David Prize.
Se graduó de la facultad de derecho en junio y aprobó el examen de la barra estatal un mes después.
DeMaria, quien trabajó para Sapphire 39 en Midtown y Sapphire 60 en el Upper East Side, busca $10 millones en daños contra la empresa por presunta “violación, agresión sexual, abuso sexual, tocamiento forzado, agresión, lesiones, tráfico sexual y encarcelamiento falso ilegal”, según sus presentaciones en la Corte Suprema de Manhattan.
“Presencié cómo castigaban a mujeres por rechazar actos sexuales y por reportar agresiones sexuales, mientras la gerencia se beneficiaba de nuestro sufrimiento y vendía acceso a nuestros cuerpos sin nuestro conocimiento”, declaró DeMaria al The Post.
“Cuando bailaba, no tenía los recursos, el conocimiento ni el apoyo para buscar justicia”, añadió. “Mi educación en la facultad de derecho cambió eso. Ahora, pretendo responsabilizar a estos clubes por abusar de mujeres en violación de la ley”.
DeMaria también demandó a Vivid Cabaret, en la calle West 37, y Hoops Cabaret en la calle West 33, que comparten la misma propiedad, por $15 millones, acusando a la empresa de violación, agresión sexual y tráfico sexual, así como tocamiento forzado y lesiones, entre otros cargos.
Ha acusado al club Gossip, en Long Island, de acoso sexual, discriminación de género y otros cargos, buscando $2.5 millones en daños, según registros judiciales.
Los casos están pendientes. Los abogados de Vivid, Hoops y Gossip no devolvieron las llamadas para comentar.
Cuatro ex bailarinas más se han unido al caso de DeMaria contra Sapphire, alegando en documentos judiciales que también fueron sometidas a violencia sexual “resultando en daño físico y emocional”.
“Demasiados clubes de striptease operan como si las mujeres que aceptan bailar en su club también aceptaran ser agredidas sexualmente o incluso violadas”, explicó la abogada Megan Goddard, quien representa a DeMaria y otras cinco mujeres en las demandas de la Corte Suprema estatal de Manhattan.
“Los gerentes de clubes de striptease a menudo hacen la vista gorda ante las agresiones y toman represalias contra las bailarinas que las reportan. ‘¿Qué esperabas?’ no es una respuesta legal —ni humana— a una empleada que reporta una violación en sus instalaciones”, continuó Goddard.
DeMaria espera que sus demandas traigan cambios.
“He dedicado mi vida profesional a abogar por strippers, trabajadoras sexuales y víctimas de tráfico humano”, declaró.
Sapphire insistió en que “toma muy en serio los reclamos de esta naturaleza” y proporciona a los trabajadores información sobre cómo reportar conductas indebidas.
“La primera vez que Sapphire se enteró de cualquiera de los reclamos de la Sra. DeMaria fue cuando se presentó esta demanda y la demanda en sí no proporciona detalles de lo que ella realmente alega que sucedió hace una década en el club”, declaró un representante. “Tampoco se ha proporcionado información adicional a pesar de nuestras solicitudes”.
MIAMI – El entrenador del Miami Heat, Erik Spoelstra, rompió su silencio este viernes expresando profunda gratitud por el apoyo “absolutamente extraordinario” recibido tras el incendio que devastó completamente su residencia en Miami.
“Las posesiones materiales en la casa pueden reemplazarse”, declaró Spoelstra antes del partido donde Miami venció 126-108 a los Hornets. “Lo que realmente importa es que mi familia está a salvo, incluido nuestro perro. Solo sentimos agradecimiento por la seguridad de todos”.
El entrenador de 55 años apareció junto a sus tres hijos -Santiago, Dante y Ruby- quienes afortunadamente se encontraban en casa de su madre cuando las llamas consumieron la propiedad de 5,700 pies cuadrados en Coral Gables alrededor de las 4:36 a.m. del jueves.
“En un mundo perfecto, me gustaría poder volver a casa”, confesó el estratega, quien rechazó la oferta de la franquicia de tomarse días libres para continuar con sus labores.
La extinción del incendio requirió casi ocho horas de trabajo debido a la rápida propagación de las llamas y dificultades para acceder a fuentes de agua, según reportó el Miami Herald. Las autoridades confirmaron que la investigación sobre el origen del siniestro continúa abierta.
Spoelstra destacó la labor de los equipos de emergencia: “Quiero reconocer a los primeros respondedores, bomberos y policías. Aunque no pudieron salvar la estructura, evitaron que el fuego se extendiera al vecindario”.
La propiedad, adquirida en diciembre de 2023 tras su divorcio de la ex bailarina del Heat Nikki Sapp, tenía un valor estimado de $6.6 millones y se encontraba en proceso de renovación. Imágenes del lugar muestran la residencia reducida a escombros, con paredes carbonizadas y el techo colapsado.
El entrenador, quien llegaba de una gira por Denver cuando ocurrió la tragedia, fue captado en video observando impotente la destrucción de su hogar.
“El apoyo de la comunidad del sur de Florida ha sido conmovedor”, afirmó Spoelstra. “Aunque enfrentamos desafíos únicos, los Spoelstra somos resilientes”.
Con 30 años de trayectoria en el Heat incluyendo dos campeonatos NBA y seis apariciones en finales, Spoelstra demuestra una vez más su fortaleza característica mientras dirige al equipo en su actual temporada 5-4.
Santo Domingo.- Un violento asalto quedó registrado en video este viernes en la avenida Charles de Gaulle, cuando cuatro individuos armados a bordo de dos motocicletas interceptaron un automóvil y despojaron al conductor de sus pertenencias. Las imágenes muestran la rapidez y coordinación del grupo, que luego huyó a toda velocidad, generando alarma entre transeúntes y usuarios de redes sociales.
Aunque el conductor no sufrió lesiones físicas, sí vivió un momento de intensa tensión emocional y presentó formal denuncia ante las autoridades. La Policía Nacional inició las investigaciones para identificar a los responsables, analizando el video para determinar características de los vehículos, vestimenta de los implicados y rutas de escape.
El hecho ha encendido la preocupación de vecinos y conductores habituales de la zona, quienes demandan mayor vigilancia en la avenida y acciones contundentes para prevenir episodios similares. Las autoridades aseguraron que reforzarán la presencia policial y continuarán con el seguimiento del caso hasta lograr la captura de los asaltantes.
La psoriasis no es contagiosa, no se transmite por contacto, besos ni toallas. Los brotes surgen cuando el sistema inmune se activa de forma inadecuada en personas con predisposición genética, lo que acelera el recambio de la piel y provoca placas rojas y descamación. Hay factores desencadenantes que empujan esa activación, como el estrés, las infecciones o ciertos fármacos.
¿Por qué aparecen los brotes de psoriasis? Lo que pasa en el cuerpo
Genética y sistema inmune: la base del brote
El sistema inmune confunde señales y libera mensajeros inflamatorios que aceleran la renovación de la piel. Las células suben a la superficie con prisa y forman escamas, en especial en codos, rodillas y cuero cabelludo. La genética aporta el terreno, con variantes como PSORS1 que aumentan la susceptibilidad dentro de algunas familias. Tener esos genes no determina cuándo habrá placas, solo abre la puerta cuando algo las empuja. La enfermedad no es contagiosa, se trata de una respuesta interna. La suma de predisposición y un disparador concreto explica por qué un día la piel despierta más irritable.
Estrés y piel: cómo la tensión activa la inflamación
El estrés desordena hormonas, altera defensas y sube el tono inflamatorio que alimenta el brote. El mal descanso, las preocupaciones constantes y los picos de tensión actúan como gasolina. Una respiración lenta, pausas cortas durante el día y una rutina de sueño regular bajan la intensidad del fuego. La mente y la piel conversan por medio de señales, por eso una carga mental sostenida puede traducirse en placas más rebeldes. Pequeños cambios diarios apoyan al organismo y calman la inflamación.
Infecciones y lesiones: por qué un resfriado o un corte disparan placas
Algunas infecciones activan la respuesta cutánea y desencadenan brotes. La faringitis por estreptococo es un ejemplo clásico, igual que ciertos virus, incluido el VIH. También cuenta el daño directo en la piel. El fenómeno de Koebner describe lesiones nuevas que aparecen en zonas con golpes, cortes, quemaduras, picaduras o incluso tras una vacuna. Esto no hace que la psoriasis sea contagiosa, solo muestra cuán sensible está la barrera cutánea. Cuidar la piel y tratar a tiempo las infecciones reduce el riesgo.
Foto Freepik
Desencadenantes comunes de brotes y cómo reducir el riesgo
Medicamentos que pueden empeorar la psoriasis
Algunos medicamentos se asocian a brotes, en especial el litio, los betabloqueadores y los antipalúdicos. Los IECA, ciertas inmunoterapias y la retirada brusca de corticoides también pueden influir en personas predispuestas. Esto no implica suspender por cuenta propia, cualquier cambio debe pasar por el médico. En muchos casos existen alternativas igual de eficaces. Si aparece una placa nueva después de iniciar un fármaco, conviene avisar cuanto antes. Un ajuste temprano evita empeoramientos innecesarios y previene recaídas.
Hábitos y ambiente: alcohol, tabaco, frío y piel seca
El alcohol y el tabaco alimentan la inflamación y vuelven más frecuentes los brotes. La obesidad agrava los síntomas por su carga inflamatoria sostenida. El clima frío y seco reseca la barrera cutánea y favorece grietas y placas. La piel seca duele, pica y se irrita con facilidad. Una pauta simple ayuda mucho, hidratación diaria con cremas espesas sin perfume, duchas cortas con agua tibia, tejidos suaves y evitar rascarse. Pequeños gestos constantes cambian el día a día de la piel.
Luz solar y brotes: equilibrio entre ayuda y daño
Una exposición solar moderada puede calmar la inflamación y mejorar las placas. El exceso, en cambio, causa quemaduras solares y puede activar brotes. La regla práctica es protegerse con filtro, evitar el mediodía y preferir ratos cortos y regulares. Las cabinas UV sin control médico no son una buena idea. Cada piel reacciona distinto, por lo que conviene observar la respuesta personal y ajustar el tiempo al sol con sentido común.
¿Qué hacer cuando aparece un brote de psoriasis?
Cuidados diarios de la piel durante un brote
La hidratación es la base. Conviene aplicar emolientes densos sin perfume justo después de la ducha, con agua tibia y tiempos breves. El secado con toques suaves evita irritaciones. Es mejor no rascarse y alejar productos con fragancia o alcohol. Si hay indicación médica, usar tratamientos tópicos y champús adecuados para cuero cabelludo. Una rutina constante reduce el picor y suaviza las placas con el paso de los días. La paciencia y la regularidad marcan la diferencia.
¿Cuándo hablar con el dermatólogo y cómo preparar la cita?
Toca consultar si aparece dolor articular, si las placas se vuelven extensas, si hay signos de infección o cambios rápidos. Ayuda llevar fotos recientes, una lista de posibles desencadenantes y todos los fármacos en uso. Una comunicación clara acelera ajustes del plan y evita tratamientos ineficaces. El seguimiento da seguridad y reduce brotes futuros. Suspender corticoides de golpe no es una opción segura.
Prevención a largo plazo: rutina sencilla que sí funciona
La prevención se apoya en hábitos estables. Hidratación diaria, manejo del estrés, buen sueño, ejercicio suave y peso saludable mantienen la inflamación a raya. Limitar alcohol y dejar tabaco mejora la respuesta a los tratamientos. Un diario de brotes ayuda a detectar patrones propios, desde una semana de insomnio hasta un nuevo jabón. Con esa información el cuidado se vuelve personal y más eficaz. La constancia suma, incluso en días buenos.
El Mundial de Fórmula 1 2025 ha vivido otro giro inesperado en Interlagos. La carrera al sprint del Gran Premio de Brasil, marcada por las condiciones complicadas de pista y la falta de acción, ha dejado una imagen que puede pesar mucho en la lucha por el título: Oscar Piastri, segundo del campeonato, contra el muro en la curva 3.
El australiano, que venía de dos fines de semana discretos y había perdido el liderato frente a su compañero Lando Norris, intentaba recuperar sensaciones en una carrera corta que prometía poco riesgo… hasta que lo perdió todo. En la sexta vuelta, el piloto de McLaren F1perdió la trasera en la subida del sector 1 y terminó golpeando las protecciones, provocando una bandera roja inmediata.
Piastri había optado por los neumáticos medios, una elección conservadora frente a los que apostaron por los blandos en una pista con muchas zonas aún húmedas. Pero esa prudencia acabó costándole cara: el coche se descontroló justo en el punto donde, según reportó Kimi Antonelli por radio, Norris habría levantado algo de agua al pasar por el piano. “Puede que haya puesto agua en la pista”, decía el joven de Mercedes mientras dirección de carrera mostraba la bandera roja.
Vídeo: el accidente de Oscar Piastri en la Sprint de Brasil
Con Norris liderando la sprint en ese momento, el golpe de Piastri no solo fue literal: también lo fue en la clasificación del Mundial. Si Norris logra mantener la victoria, ampliará su ventaja hasta los 9 puntos, un margen importante en una lucha que hace apenas una semana estaba separada por solo uno.
Colapinto y Hülkenberg, también víctimas
Poco después del accidente de Piastri, Franco Colapinto y Nico Hulkenberg, que llegaban por la parte trasera, sufrieron incidentes casi idénticos en el mismo punto. El alemán logró volver a boxes, aunque su Sauber F1 Team acabaría retirado minutos después. En cambio, Colapinto no tuvo tanta suerte: su Alpine terminó contra las protecciones, en un fin de semana que debía ser de celebración tras anunciarse su renovación con el equipo para 2026.
La carrera se reanudó, pero el ambiente cambió. En una sprint donde nadie quería arriesgar demasiado por las condiciones mixtas, los errores y las salidas de pista se convirtieron en protagonistas. Y aunque el impacto de Piastri pueda parecer un simple despiste, podría costarle caro en el campeonato, sobre todo si Verstappen —que se mantiene al acecho— logra sumar más puntos.
Brasil ha vuelto a dejar claro que, en Fórmula 1, el margen entre la gloria y el desastre se mide en milímetros. Y para Piastri, ese margen se ha cobrado un precio muy alto.
Last Updated on noviembre 8, 2025 1:44 pm by Laszlo Szabo / NowadAIs | Published on noviembre 8, 2025 by Laszlo Szabo / NowadAIs
La IA libre que supera a la GPT-5: el rendimiento récord de Kimi K2 Thinking – Notas clave
El modelo de peso abierto supera a los competidores cerrados: Kimi K2 Thinking supera a GPT-5 y a Claude Sonnet 4.5 en varias pruebas de razonamiento y agenciamiento, como Humanity’s Last Exam (44,9% frente a 41,7% y 32,0%) y BrowseComp (60,2% frente a 54,9% y 24,1%), sin dejar de ser completamente libre y de código abierto bajo una licencia MIT modificada
Capacidades de largo plazo sin precedentes: El modelo mantiene un razonamiento coherente a lo largo de 200 a 300 llamadas secuenciales a herramientas sin intervención humana, una capacidad que establece nuevos estándares para los agentes autónomos de IA y supera con creces los 30 a 50 pasos en los que se degradan la mayoría de los modelos anteriores
Arquitectura eficiente con despliegue práctico: Gracias a un diseño de mezcla de expertos con un billón de parámetros totales pero sólo 32.000 millones de activos por token, combinado con la cuantización nativa INT4, Kimi K2 Thinking ofrece un rendimiento de primera clase con una velocidad de inferencia dos veces superior y un coste de formación de sólo 4,6 millones de dólares
Cuando un modelo de inteligencia artificial totalmente abierto empieza a superar a sistemas patentados cuyo acceso cuesta millones, la gente se da cuenta. Kimi K2 Thinking, lanzado por Moonshot AI, con sede en Pekín, en noviembre de 2025, ha hecho exactamente eso. Este sistema de un billón de parámetros no solo iguala a competidores de código cerrado como GPT-5 y Claude Sonnet 4.5 en las pruebas de referencia, sino que los supera en varias áreas clave sin dejar de ser completamente gratuito y abierto para que cualquiera pueda utilizarlo
Qué hace diferente a Kimi K2 Thinking
El propio nombre nos da una pista de lo que diferencia a este modelo. Kimi K2 Thinking representa la última evolución de la serie Kimi, diseñada específicamente como un “agente pensante” en lugar de un simple chatbot conversacional. Mientras que la mayoría de los modelos de IA destacan por sus respuestas rápidas, Kimi K2 Thinking adopta un enfoque fundamentalmente diferente, razonando los problemas paso a paso e invocando dinámicamente herramientas para llevar a cabo tareas complejas
Moonshot AI construyó este modelo utilizando una arquitectura de Mezcla de Expertos que contiene un billón de parámetros totales, aunque sólo 32.000 millones están activos durante cada inferencia. Este diseño de activación dispersa permite al modelo alcanzar una escala masiva sin dejar de ser sorprendentemente eficiente en su ejecución. La arquitectura consta de 61 capas, 384 expertos (8 seleccionados por token) y admite una impresionante ventana de contexto de 256.000 tokens, el doble que muchos competidores
Lo que realmente distingue a Kimi K2 Thinking de los modelos anteriores es su metodología de entrenamiento. El equipo empleó Quantization-Aware Training durante la fase de post-entrenamiento, implementando la precisión nativa INT4 para los componentes de Mixture-of-Experts. Esta técnica ofrece una velocidad de inferencia aproximadamente dos veces mayor que la precisión estándar, manteniendo al mismo tiempo el rendimiento de referencia. Según informes que citan fuentes familiarizadas con el asunto, el entrenamiento de este modelo costó solo 4,6 millones de dólares, una fracción de lo que las grandes empresas tecnológicas suelen invertir en sistemas de vanguardia
Rendimiento récord en las pruebas de referencia
Kimi K2 Thinking’s Record-Breaking Performance – Benchmarks in General Tasks Fuente
Los números cuentan una historia convincente. En Humanity’s Last Exam, una prueba muy difícil que mide la capacidad de razonamiento avanzado, Kimi K2 Thinking obtuvo un 44,9%, por encima del 41,7% de GPT-5 y significativamente por encima del 32,0% de Claude Sonnet 4.5. Esta prueba evalúa específicamente los tipos de razonamiento complejo y en varios pasos que separan a los sistemas realmente capaces de los que se limitan a emparejar patrones
Las capacidades agenticas del modelo brillan aún más en tareas que requieren el uso de herramientas y la navegación web. En BrowseComp, que mide la capacidad de los sistemas de IA para buscar y sintetizar información en Internet, Kimi K2 Thinking alcanzó un 60,2%, superando ampliamente el 54,9% de GPT-5 y más que duplicando el 24,1% de Claude Sonnet 4.5. Las pruebas independientes realizadas por Artificial Analysis confirmaron estos puntos fuertes e informaron de que Kimi K2 Thinking obtuvo una puntuación del 93% en la prueba de referencia τ²-Bench Telecom, la puntuación más alta que habían medido de forma independiente para el uso de herramientas agenticas
El rendimiento de la codificación presenta una imagen más matizada. En SWE-Bench Verified, que comprueba si los modelos pueden generar parches para corregir errores de software reales, Kimi K2 Thinking obtuvo un 71,3%. Aunque competitivo, queda por detrás del 74,9% de GPT-5 y del 77,2% de Claude en tareas de depuración a escala de repositorio. Sin embargo, en LiveCodeBench v6, que se centra en la programación competitiva y los retos algorítmicos, Kimi K2 Th inking sobresalió con un 83,1%, superando el 64,0% de Claude y acercándose al 87,0% de GPT-5
Las capacidades matemáticas demostraron ser especialmente sólidas cuando el modelo podía utilizar herramientas. En AIME 2025 con acceso a Python, Kimi K2 Thinking alcanzó el 99,6%, saturando prácticamente la prueba junto con GPT-5 y Claude. En la prueba GPQA-Diamond, que evalúa preguntas científicas de nivel universitario, Kimi K2 Thinking obtuvo un 85,7%, ligeramente por delante del 84,5% de GPT-5
La salsa secreta: Orquestación de herramientas a largo plazo
Quizá el logro técnico más impresionante de Kimi K2 Thinking sea su capacidad para ejecutar entre 200 y 300 llamadas secuenciales a herramientas sin intervención humana. La mayoría de los modelos anteriores perderían coherencia o se desviarían de la tarea después de 30 o 50 pasos, pero este sistema mantiene un comportamiento orientado a objetivos a lo largo de cientos de acciones
Esta capacidad se debe al método de entrenamiento del modelo. En lugar de tratar el uso de herramientas y el razonamiento como funciones separadas, Kimi K2 Thinking aprendió a intercalar el razonamiento en cadena con las llamadas a funciones de principio a fin. Cuando se enfrenta a un problema complejo, puede dividir la tarea en subtareas, invocar las herramientas adecuadas para cada paso, razonar sobre los resultados, ajustar su estrategia y seguir iterando hasta llegar a una solución
Una demostración compartida por Moonshot mostraba al modelo abordando un problema matemático de nivel de doctorado a través de 23 razonamientos intercalados y llamadas a herramientas. El sistema buscó de forma autónoma la información relevante, utilizó Python para realizar cálculos, razonó sobre los resultados intermedios y refinó iterativamente su enfoque sin ninguna guía humana. Este tipo de resolución de problemas sostenida y en varios pasos representa un salto cualitativo más allá de lo que pueden lograr la mayoría de los chatbots
Aplicaciones prácticas y pruebas en el mundo real
Los primeros usuarios han puesto a prueba Kimi K2 Thinking en diversos ámbitos. Un desarrollador lo integró en la plataforma Cline AI e informó de que el modelo podía tomar una solicitud de funcionalidad en lenguaje natural, dividirla en tareas de codificación, generar código para cada componente, probar la implementación y perfeccionarla de forma iterativa con una supervisión mínima. La calidad del código resultante fue siempre alta, aunque el proceso no siempre fue fluido: el desarrollador observó un desfase entre la inteligencia de alto nivel del modelo y la estabilidad de ejecución de las herramientas de bajo nivel
Para los flujos de trabajo de investigación, los usuarios han descubierto que Kimi K2 Thinking es especialmente valioso cuando se combina con otros modelos en un proceso. Uno de los enfoques consiste en utilizar Kimi K2 Thinking como front-end para realizar una recopilación exhaustiva de información -aprovechando sus capacidades de contexto largo y su resistencia de ejecución para compilar cantidades masivas de datos relevantes- y luego alimentar ese contexto a un modelo de razonamiento diferente para el análisis final. Esta estrategia híbrida aprovecha los puntos fuertes del modelo al tiempo que sortea sus limitaciones
Los usuarios académicos afirman que Kimi K2 Thinking destaca en el manejo de documentos largos y en el mantenimiento de bajas tasas de alucinación, lo que lo hace adecuado para revisiones bibliográficas y síntesis de investigaciones. La ventana contextual de 256.000 tokens significa que el modelo puede procesar trabajos de investigación, libros o bases de código enteras en una sola sesión sin perder detalles importantes
La escritura creativa representa otro punto fuerte que distingue a este modelo. Numerosos usuarios de Reddit han elogiado el estilo de escritura humano de Kimi K2 Thinking, señalando que sus resultados rara vez son marcados por las herramientas de detección de IA. Esta cualidad se debe a que el modelo se entrena en dos idiomas dominantes: inglés y chino a un nivel casi experto, con un vocabulario de 160.000 palabras que abarca varias escrituras e idiomas
Cómo acceder y utilizar Kimi K2 Thinking
Empezar a utilizar Kimi K2 Th inking requiere unos conocimientos técnicos mínimos. Los usuarios pueden acceder al modelo a través de varios canales, cada uno de ellos adaptado a diferentes necesidades. El método más sencillo consiste en visitar kimi.com, donde Moonshot ofrece una interfaz web gratuita similar a ChatGPT. Crear una cuenta lleva unos segundos, y los usuarios pueden iniciar inmediatamente conversaciones con el modelo completo
Para los desarrolladores de aplicaciones, Moonshot ofrece una API compatible con los estándares OpenAI y Anthropic, lo que facilita la integración. La estructura de precios es muy inferior a la de la competencia: a 0,15 dólares por millón de tokens de entrada y a 2,50 dólares por millón de tokens de salida, cuesta una fracción de las tarifas de 2 y 8 dólares de GPT-4. Una empresa típica que utilice 100 millones de fichas de entrada y 20 millones de fichas de salida al mes gastaría sólo 65 dólares con Kimi K2 Thinking, frente a los 360 dólares de GPT-4
Los usuarios técnicos que deseen un control total pueden descargar los pesos completos del modelo desde Hugging Face. El modelo funciona con motores de inferencia como vLLM, SGLang y KTransformers. Aunque el modelo completo pesa aproximadamente 600 GB, la cuantización INT4 lo hace manejable en hardware de consumo de gama alta. Una de las personas que lo probó informó de que se alcanzaban unos 15 tokens por segundo con dos chips M3 Ultra
Cuando se trabaja con Kimi K2 Thinking, resulta esencial comprender el flujo de trabajo de llamada de herramientas. El modelo acepta una lista de herramientas disponibles con cada solicitud y, a continuación, decide de forma autónoma cuándo y cómo invocarlas. Los desarrolladores describen la información de la llamada a la herramienta en un formato estandarizado, la envían al modelo, ejecutan las funciones solicitadas, añaden los resultados al historial de la conversación y dejan que el modelo siga razonando hasta que determine que tiene información suficiente para responder a la consulta
La ventaja de la licencia
Moonshot lanzó Kimi K2 Thinking bajo una licencia MIT modificada que elimina la mayoría de las barreras para su adopción. Esto otorga a los usuarios plenos derechos de uso comercial y trabajo derivado, permitiendo tanto a investigadores individuales como a desarrolladores empresariales integrarlo libremente en sus proyectos. La modificación sólo añade un requisito: las implantaciones que atiendan a más de 100 millones de usuarios activos mensuales o generen más de 20 millones de dólares al mes en ingresos deben mostrar “Kimi K2” en la interfaz de su producto
Para la inmensa mayoría de los casos de uso -desde la investigación académica a las aplicaciones para empresas de nueva creación, pasando por las herramientas internas de las empresas- esta cláusula de atribución nunca entra en juego. La concesión de licencias representa uno de los enfoques más permisivos vistos para un modelo de clase fronteriza, en marcado contraste con las cuotas de suscripción y los costes de API requeridos para las alternativas cerradas
Arquitectura técnica
Para entender qué hace posible Kimi K2 Thinking es necesario examinar sus innovaciones arquitectónicas. El diseño de mezcla de expertos emplea 384 expertos especializados en las capas de avance, con un mecanismo de activación que selecciona dinámicamente 8 expertos por señal de entrada. Este patrón de activación dispersa significa que, a pesar de que el modelo contiene un billón de parámetros, sólo se activan unos 32.000 millones por cada token, lo que equivale aproximadamente a activar el 3,2% de la capacidad total
El mecanismo de atención, denominado MLA (Multi-head Local Attention), permite al modelo manejar contextos de hasta 256.000 tokens. En comparación con DeepSeek R1, que comparte ADN arquitectónico con Kimi K2 Thinking, el modelo utiliza la mitad de cabezas de atención (64 frente a 128) pero aproximadamente 1,5 veces más expertos por capa MoE (384 frente a 256). El vocabulario se amplió a 160.000 palabras frente a las 129.000 de DeepSeek, lo que proporciona una mejor cobertura en varios idiomas
En el entrenamiento se empleó el optimizador MuonClip desarrollado por Moonshot, que garantiza la estabilidad cuando se entrena a una escala de 15,5 billones de tokens. La fase de post-entrenamiento incorporó Quantization-Aware Training específicamente en los componentes MoE, permitiendo a Kimi K2 Thinking funcionar de forma nativa en precisión INT4 sin la degradación de rendimiento típica de la cuantización post-hoc
En qué destaca Kimi K2 Thinking y en qué flaquea
Las pruebas en el mundo real revelan tanto sus puntos fuertes como sus limitaciones. Revisores independientes que realizaron pruebas de rendimiento no agenéticas descubrieron que, aunque Kimi K2 Thinking se comporta admirablemente en muchas tareas, tropieza en algunos problemas de razonamiento espacial y, en ocasiones, genera una sintaxis incorrecta para lenguajes específicos, como los scripts de Blender. Las preguntas de matemáticas que el rendimiento del modelo en las pruebas de referencia sugería que resolvería a veces producían errores inesperados en la práctica
La mayor fortaleza del modelo reside en las tareas de planificación, depuración y razonamiento sostenido. Varios desarrolladores afirman que Kimi K2 Thinking iguala o supera el rendimiento de GPT-5 como asistente de planificación y depuración. Para los flujos de trabajo que requieren una cuidadosa descomposición de problemas complejos en pasos manejables, seguida de una ejecución sistemática, este modelo ofrece un valor constante
Sin embargo, algunos usuarios observan incoherencias cuando el contexto total se acerca al límite de 256.000 fichas. A medida que el “banco de trabajo” del modelo se va llenando de información de pasos anteriores, el razonamiento puede volverse impredecible o detenerse inesperadamente. Esto sugiere que, aunque la arquitectura admite contextos muy largos, es posible que el entrenamiento no se haya optimizado completamente para todos los escenarios posibles de uso de herramientas de cadena larga
Implicaciones del código abierto
El lanzamiento de Kimi K2 Thinking representa algo más que otro modelo: señala un cambio estructural en el panorama de la IA. Por primera vez, un sistema de código abierto iguala o supera a los modelos patentados de frontera en puntos de referencia clave de razonamiento y agenciamiento. Esto desafía la suposición de que la IA más capaz debe permanecer encerrada tras los muros de pago de las empresas
Las empresas que antes dependían exclusivamente de API patentadas ahora pueden implantar alternativas abiertas con un razonamiento de nivel GPT-5, al tiempo que conservan el control total sobre los pesos, los datos y el cumplimiento de las normas. La transparencia permite la inspección de las trazas de razonamiento, el ajuste fino para aplicaciones específicas del dominio y la eliminación de la dependencia del proveedor. Para los investigadores académicos, el acceso a un modelo de razonamiento de un billón de parámetros sin cuotas de suscripción democratiza la participación en la investigación de la IA
La dinámica competitiva ya ha cambiado. Apenas unas semanas antes del lanzamiento de Kimi K2 Thinking, MiniMax-M2 ostentaba el título de mejor modelo de código abierto con puntuaciones impresionantes en múltiples pruebas comparativas. Kimi K2 Thinking superó decisivamente esas puntuaciones, por ejemplo, con un 60,2% en BrowseComp frente al 44,0% de M2, y un 71,3% en SWE-Bench Verified frente al 69,4% de M2. Esta rápida sucesión de modelos abiertos cada vez más capaces sugiere que la frontera se ha vuelto más colaborativa que propietaria
El futuro y lo que está por venir
La familia de modelos Kimi sigue evolucionando rápidamente. Moonshot ya ha lanzado múltiples versiones a lo largo de 2025, incluidas variantes especializadas como Kimi-VL para tareas de visión-lenguaje y Kimi-Researcher para flujos de trabajo de investigación autónoma. La empresa amplió la ventana de contexto de 128.000 tokens en el Kimi K2 original a 256.000 en versiones posteriores
De cara al futuro, varias áreas presentan oportunidades de mejora. La inestabilidad ocasional en cadenas largas de uso de herramientas sugiere la posibilidad de mejorar la formación en flujos de trabajo agénticos ampliados. Aunque el rendimiento matemático y de codificación ya alcanza altos niveles, el perfeccionamiento continuo podría cerrar las brechas restantes con los mejores sistemas propietarios en tareas de ingeniería de software a escala de repositorio
Es probable que se amplíe la integración con herramientas y API externas, haciendo que Kimi K2 Thinking sea aún más capaz como agente autónomo. La arquitectura del modelo, con su eficiente activación dispersa y cuantificación nativa, apunta hacia un futuro en el que los modelos de billones de parámetros se convertirán en algo rutinario y no excepcional
Recomendaciones prácticas para los usuarios
Las organizaciones que evalúen Kimi K2 Thinking deberían considerar una estrategia de enrutamiento híbrida. Dirija las tareas de investigación de planificación pesada, programación competitiva y codificación algorítmica a Kimi K2 Thinking, donde brillan sus puntos fuertes. Mantenga GPT-5 o Claude en el bucle para la corrección de errores a escala de repositorio, tareas de desarrollo con mucho terminal y escenarios que requieran la máxima fiabilidad de producción
Los desarrolladores individuales pueden empezar a experimentar inmediatamente a través de la interfaz web gratuita en kimi.com. Los desarrolladores de aplicaciones deberían evaluar la API, que ofrece un rendimiento de primera clase a un precio muy inferior al de la competencia. Los usuarios técnicos con el hardware adecuado pueden ejecutar el modelo localmente, obteniendo un control total y beneficiándose de la velocidad de inferencia 2x proporcionada por el soporte nativo INT4
Para obtener los mejores resultados, estructure las instrucciones con claridad y aproveche la capacidad del modelo para planificar antes de ejecutar. Considere la posibilidad de que Kimi K2 Thinking actúe primero como “arquitecto” generando un plan detallado para tareas complejas y, a continuación, como “despachador” ejecutando ese plan paso a paso. Este enfoque de pensamiento externalizado sortea cualquier limitación de razonamiento a la vez que aprovecha las excepcionales capacidades de ejecución del modelo
Definiciones
Mezcla de expertos (MDE): Enfoque arquitectónico en el que un gran modelo contiene muchas subredes especializadas de “expertos”, pero sólo se activa un pequeño subconjunto para cada entrada, lo que permite una escala masiva al tiempo que se mantiene un cálculo manejable. Kimi K2 Thinking utiliza 384 expertos con 8 seleccionados por token
Ventana de contexto: La cantidad de texto (medido en tokens) que un modelo puede procesar y recordar a la vez. Kimi K2 Thinking admite 256.000 tokens, el equivalente aproximado a un libro de 500 páginas, lo que permite analizar documentos extensos o conversaciones extensas
Quantization-Aware Training (QAT): Técnica mediante la cual un modelo aprende a mantener la precisión incluso cuando utiliza números de menor precisión (como INT4 en lugar de coma flotante estándar), lo que permite una inferencia más rápida y menores requisitos de memoria sin sacrificar la calidad del rendimiento
Llamada a herramientas/llamada a funciones: Capacidad de un modelo de IA para reconocer cuándo necesita información o capacidades externas, invocar las herramientas adecuadas (como búsquedas en Internet, calculadoras o ejecución de código) e integrar los resultados en su proceso de razonamiento
SWE-Bench: Evaluación comparativa que comprueba si los modelos de IA pueden corregir automáticamente errores de software reales analizando bases de código, comprendiendo los problemas y generando los parches adecuados, midiendo la capacidad práctica de codificación más que los conocimientos teóricos
El último examen de la humanidad (HLE): Una prueba especialmente difícil diseñada para poner a prueba las capacidades de razonamiento avanzado en problemas que requieren un pensamiento profundo de varios pasos en lugar de una simple coincidencia de patrones o recuperación de conocimientos
Inteligencia Artificial Agenética: sistemas capaces de comportarse de forma autónoma y orientada a objetivos, planificando flujos de trabajo de varios pasos, invocando herramientas según sea necesario, adaptando estrategias en función de los resultados y perseverando en tareas complejas sin la constante orientación humana
Modelo de peso abierto: Un sistema de IA en el que los parámetros entrenados (pesos) están disponibles públicamente para su descarga, lo que permite a cualquiera ejecutar, estudiar o modificar el modelo, en contraste con los modelos cerrados accesibles sólo a través de API
Preguntas más frecuentes
¿Qué es Kimi K2 Thinking y cómo funciona?
Kimi K2 Thinking es un modelo de IA de código abierto con un billón de parámetros desarrollado por Moonshot AI que funciona como un “agente pensante” capaz de razonar paso a paso problemas complejos invocando de forma autónoma herramientas externas. A diferencia de los chatbots tradicionales, que se limitan a responder a consultas, Kimi K2 Thinking puede descomponer problemas ambiguos en subtareas claras, buscar información, ejecutar código, analizar resultados e iterar a través de cientos de pasos sin intervención humana. El modelo emplea una arquitectura de Mezcla de Expertos con 384 expertos especializados, activando sólo 32.000 millones de sus billones de parámetros totales para cada inferencia, lo que hace que su ejecución sea potente y eficiente
¿Cómo se compara Kimi K2 Thinking con GPT-5 y Claude en cuanto a rendimiento en el mundo real?
Kimi K2 Thinking supera tanto a GPT-5 como a Claude Sonnet 4.5 en varias pruebas clave, especialmente en los escenarios de razonamiento ágil y uso de herramientas. En Humanity’s Last Exam, Kimi K2 Thinking obtuvo un 44,9%, frente al 41,7% de GPT-5 y el 32,0% de Claude, mientras que en BrowseComp (que mide la capacidad de búsqueda en Internet), alcanzó un 60,2%, frente al 54,9% de GPT-5 y el 24,1% de Claude. En cuanto a las tareas de programación, el panorama es más matizado: Kimi K2 Thinking destaca en programación competitiva con un 83,1% en LiveCodeBench, pero queda ligeramente por detrás de GPT-5 y Claude en tareas de corrección de errores a escala de repositorio como SWE-Bench Verified. En general, Kimi K2 Thinking demuestra sus puntos fuertes en planificación, razonamiento sostenido y realización autónoma de tareas, lo que la hace especialmente valiosa para la investigación, la codificación algorítmica y los flujos de trabajo de resolución de problemas en varios pasos
¿Es realmente gratuito el uso de Kimi K2 Thinking y cuáles son las restricciones de la licencia?
Sí, Kimi K2 Thinking es realmente libre de usar a través de múltiples métodos de acceso, incluyendo la interfaz web en kimi.com, la plataforma API en platform.moonshot.ai, y pesos descargables en Hugging Face. El modelo se publica bajo una licencia MIT modificada que proporciona plenos derechos comerciales y derivados, lo que significa que tanto particulares como empresas pueden integrarlo en sus productos sin coste alguno. La única restricción se aplica a las implantaciones extremadamente grandes: si su aplicación da servicio a más de 100 millones de usuarios activos mensuales o genera más de 20 millones de dólares al mes en ingresos, debe mostrar “Kimi K2” en la interfaz de su producto. Para la inmensa mayoría de los usuarios -incluidas empresas de nueva creación, investigadores e incluso aplicaciones empresariales importantes- este umbral no se aplica nunca, por lo que el modelo carece esencialmente de restricciones
¿Qué requisitos de hardware se necesitan para ejecutar Kimi K2 Thinking localmente?
La ejecución local de Kimi K2 Thinking requiere un hardware considerable, pero cada vez más accesible gracias a la cuantización INT4 nativa del modelo. El modelo completo pesa aproximadamente 600 GB en su forma cuantizada, lo que es significativamente menor que los modelos típicos de billones de parámetros. Un desarrollador ha informado de que se consiguen unos 15 tokens por segundo con dos chips M3 Ultra, lo que demuestra que el hardware de consumo de gama alta puede manejar la inferencia. Para un rendimiento óptimo, el modelo funciona con motores de inferencia como vLLM, SGLang y KTransformers, que pueden distribuir la carga de trabajo de forma eficiente. La mayoría de las organizaciones evalúan la conveniencia del autoalojamiento en función del volumen de uso: las que procesan menos de 10 millones de tokens al mes suelen encontrar la API más rentable, a 0,15 dólares por millón de tokens de entrada, mientras que las operaciones que superan los 100 millones de tokens mensuales se benefician del autoalojamiento a pesar de la inversión en hardware
¿Qué hace especial a la capacidad de Kimi K2 Thinking para llamar a herramientas en comparación con otros modelos de IA?
La llamada a herramientas de Kimi K2 Thinking se distingue por su capacidad para ejecutar entre 200 y 300 llamadas secuenciales a herramientas manteniendo un comportamiento coherente y orientado a objetivos en toda la cadena, lo que supera con creces los 30 o 50 pasos en los que la mayoría de los modelos anteriores empiezan a degradarse o a perder de vista los objetivos. El modelo se entrenó de principio a fin para intercalar el razonamiento de cadena de pensamiento con las llamadas a funciones, lo que significa que no se limita a invocar herramientas mecánicamente, sino que razona activamente sobre cuándo son necesarias las herramientas, qué información extraer de los resultados y cómo ajustar su estrategia en función de los resultados. Esto permite auténticos flujos de trabajo autónomos: Kimi K2 Thinking puede llevar a cabo investigaciones buscando en múltiples fuentes, sintetizando los resultados, realizando cálculos para verificar las afirmaciones, iterando cuando fallan los planteamientos iniciales y persistiendo en tareas complejas de varios pasos sin necesidad de intervención humana en cada etapa. El impacto práctico aparece en casos de uso como el desarrollo automatizado de software, la síntesis exhaustiva de investigaciones y la resolución de problemas complejos que tradicionalmente requerirían un esfuerzo humano sostenido durante varias horas o días.
IMBERT, PUERTO PLATA. – Un hombre identificado como Geraldo, alias “Tite”, asesinó a su expareja Brendalis Castillo Padilla (Brenda), de 24 años, tras propinarle tres estocadas. El hecho ocurrió en la comunidad de Saballo, municipio Imbert, provincia Puerto Plata.
Castillo Padilla, residente en el sector Barrio Nuevo, fue trasladada al hospital municipal de Imbert, donde falleció mientras recibía atención médica a causa de las heridas de arma blanca que le ocasionó su agresor.
De acuerdo con versiones, la pareja se había separado recientemente, y el hombre presuntamente la acosaba de manera constante luego de que la joven se negara a retomar la relación. Ambos habían procreado dos hijos.
El trágico suceso ocurrió frente a una banca de lotería donde, según se informó, laboraba la víctima.
Las autoridades policiales iniciaron de inmediato la búsqueda del responsable, quien tras cometer el hecho emprendió la huida.