El auge de la inteligencia artificial (IA) plantea desafíos graves en cuanto a su fiabilidad operativa y su elevado consumo de energía, especialmente cuando se integran en sistemas de seguridad crítica o determinados dispositivos conectados como los del internet de las cosas (IdC). Ante esta realidad, un equipo de la Escuela Técnica Superior de Ingenieros de Telecomunicación (ETSIT) de la Universidad Politécnica de Madrid (UPM) ha presentado dos avances significativos: una metodología para la detección de errores y un esquema informático para la eficiencia energética. Los investigadores, integrantes del Grupo de Internet de Nueva Generación, han colaborado para ambos trabajos con colegas de la Universidad de Tianjin, la Universidad de Ciencia y Tecnología Electrónica de China y la Northeastern University (EE UU).
La primera de las innovaciones, denominada Detección Concurrente de Errores Lingüísticos (CLED), se basa en un principio sencillo pero eficaz: el texto generado por un modelo de lenguaje de gran tamaño (LLM) debe ser coherente y seguir las reglas del idioma. Cuando se producen errores en el hardware, el modelo suele generar texto con patrones anormales. La metodología propuesta permite detectar estos fallos, logrando identificar más del 87% de los errores y con un coste computacional inferior al 1%. “La gran ventaja de CLED es que funciona incluso con modelos comerciales, a los que solo tenemos acceso a través de una API [interfaz de programación de aplicaciones]”, explica el profesor Pedro Reviriego, coautor de los estudios.
La segunda propuesta, el esquema Longitud de Secuencia Ajustable (ASL), aborda el problema del consumo energético en redes neuronales que emplean computación estocástica [caracterizada por utilizar secuencias de bits aleatorias en vez de valores binarios precisos]. Esta tecnología, ideal para el IdC por su bajo consumo, procesa la información como flujos de bits. La técnica ASL optimiza este proceso ajustando la precisión de cada capa de la red neuronal de forma inteligente: mantiene una alta precisión en las capas iniciales, que son más sensibles, y la reduce en las capas finales. Gracias a este método, se han logrado ahorros de energía y reducción de latencia superiores al 60% con una pérdida de precisión casi nula.