
La empresa china Leapting ha desplegado en Australia su robot inteligente Litian Intelligent, capaz de instalar hasta 60 módulos fotovoltaicos por hora (≈ 1 panel por minuto), lo que equivale a alrededor de 1 000 paneles al día. Durante su primer proyecto comercial en la granja solar Culcairn (350 MW) de Neoen, se instalaron casi 10 000 paneles desde febrero de 2025, reduciendo en un 25 % el tiempo total y en torno a un 30 % los costes de instalación, ya que sustituye el trabajo de 3–4 personas por robot con cabezal de succión, navegación autónoma y visión artificial avanzada.
El Litian, de 2,5 metros de altura sobre orugas autónomas, soporta paneles de hasta 30 kg y se adapta a terrenos difíciles gracias a sensores 3D y detección de obstáculos. Su introducción responde a la escasez de mano de obra capacitada, la trabajosa instalación manual (que requiere hasta 15 minutos por módulo con varios operarios) y los riesgos en condiciones extremas. Ya se planea su despliegue en otro proyecto australiano con 500 000 paneles previstos
La IA UNITE (Universal Network for Identifying Tampered and SynthEtic videos), desarrollada por la Universidad de California en Riverside, puede identificar contenido generado o manipulado por IA analizando coherencias en elementos que van más allá del rostro, como movimientos y fondos falsos en videos. Este enfoque contrasta con los detectores tradicionales centrados en rasgos faciales.
UNITE representa un avance importante, ya que muchos deepfakes actuales pueden falsificar rostros, pero fallan al generar fondos y contextos coherentes, lo que UNITE logra detectar.
Aunque supone motivo de optimismo, la tecnología de detección aún va detrás de la de creación. La mayoría de los detectores solo funcionan bien con tendencias específicas o conjuntos de datos entrenados, limitando su eficacia frente a modelos generativos emergentes o imágenes de baja calidad.
Además, existen desafíos de equidad y precisión global: muchas plataformas detectan peor deepfakes procedentes del mundo no occidental, debido a sesgos en los datos de entrenamiento, lo que genera altos índices de falsos positivos o negativos en contextos visuales y lingüísticos diversos.
Durante 2025, múltiples empresas tecnológicas han anunciado despidos justificándolos por la adopción de inteligencia artificial, pero expertos indican que esta explicación es simplista. Factores como la reestructuración interna, la presión de reducir costos y la necesidad de invertir en infraestructura para IA (como centros de datos y chips) son igualmente determinantes. Las ofertas de empleo en tecnología han caído un 36 % respecto a 2020, y si bien algunos puestos de nivel inicial se ven más afectados por la automatización, los perfiles altamente especializados siguen siendo demandados. Casos como el de Microsoft, que despidió a más de 15 000 empleados en 2025, ilustran cómo la IA se usa también como narrativa empresarial, más que como causa directa. Voces críticas, como la del CEO de Salesforce, afirman que la IA complementa más que reemplaza y que las decisiones de despido responden sobre todo a estrategias corporativas.
OpenAI ha lanzado el “Modo Estudio”, disponible desde el 29 de julio de 2025 para usuarios Free, Plus, Pro y Team, y próximamente para ChatGPT Edu. En lugar de responder directamente, el sistema utiliza preguntas abiertas, pistas y pequeños cuestionarios interactivos para guiar al estudiante a elaborar respuestas propias, fomentando el aprendizaje activo y el pensamiento crítico. Ha sido diseñado colaborativamente junto a educadores, científicos y expertos en pedagogía de más de 40 instituciones.
Aunque el modo no impide que el usuario vuelva fácilmente al modo normal de ChatGPT y solicite respuestas rápidas, OpenAI lo presenta como una herramienta para combatir el uso indebido de la IA en la educación y como un tutor personalizado disponible en cualquier momento. También se integra en iniciativas más amplias, como una alianza con Canvas para que las instituciones educativas creen chatbots personalizados sin perder propiedad de los datos estudiantiles.
Google ha iniciado una prueba en EE. UU. utilizando inteligencia artificial para estimar la edad de los usuarios y ajustar el contenido en sus plataformas. El sistema analiza datos como búsquedas, categorías de videos vistos en YouTube y la antigüedad de la cuenta para determinar si un usuario es menor de 18 años. Si se identifica a un usuario como menor, se aplican restricciones como desactivar el historial en Google Maps, limitar anuncios personalizados, restringir el acceso a aplicaciones para adultos en la Play Store y activar funciones de bienestar digital en YouTube, como recordatorios de descanso y notificaciones para ir a dormir. Los usuarios que consideren que han sido identificados erróneamente pueden verificar su edad mediante una foto de su documento de identidad o una selfie. Esta iniciativa responde a la creciente presión regulatoria en EE. UU. y otros países para proteger a los menores en línea y garantizar experiencias digitales apropiadas para su edad.