Inicio - Ciencia y Tecnología - Un estudio alerta de la dificultad de borrar datos sensibles en la inteligencia artificial

Un estudio alerta de la dificultad de borrar datos sensibles en la inteligencia artificial

10.07.2025

Un estudio de la Universitat Rovira i Virgili (URV) de Tarragona (España) evidencia las limitaciones del desaprendizaje en modelos de inteligencia artificial y advierte de la necesidad de desarrollar nuevos métodos que permitan eliminar con garantías datos sensibles o personales.

Los investigadores han analizado la efectividad de las técnicas de desaprendizaje en modelos de lenguaje extensos como ChatGPT, Mixtral, Bard o Copilot, que tienen como objetivo eliminar información personal, incorrecta o discriminatoria de los sistemas, y concluyen que no existe una fórmula que asegure el olvido total de los datos, salvo volver a entrenar el modelo desde cero sin la información que se desea eliminar.

Según los autores del estudio, esto entra en conflicto con el derecho al olvido, recogido en el Reglamento General de Protección de Datos de la Unión Europea, que obliga a suprimir los datos personales si así lo solicita el interesado.

Más noticias...

La IA china lidera un experimento de inversión frente a las pérdidas de GPT y Gemini

Los modelos de inteligencia artificial (IA) chinos DeepSeek V3.1 y Qwen3 Max lideran con notables …

A %d blogueros les gusta esto: