Las inteligencias artificiales generativas que son entrenadas por otras inteligencias artificiales (IA) pueden acabar provocando defectos irreversibles y contaminar los resultados con contenidos sin sentido.
Lea: El ‘AI Challenge Hackaton’ pondrá a prueba conocimientos de estudiantes
De interés: Día Internacional del Autocuidado: la importancia de quererse a sí mismo
Un artículo que publica hoy Nature pone énfasis en la importancia de utilizar datos fiables para entrenar los modelos de IA, pues el uso de la misma IA para ese cometido puede provocar en pocas generaciones que el contenido original sea sustituido por “tonterías sin relación” con el original.
El uso de conjuntos de datos generados por IA para entrenar futuras generaciones de modelos de aprendizaje automático puede contaminar sus resultados, un concepto conocido como ‘colapso del modelo’, indica el estudio encabezado por la Universidad de Oxford.
Por si le interesa: Descubren ‘super Júpiter’, el exoplaneta más frío y antiguo jamás observado
El trabajo define el ‘colapso del modelo' como un proceso degenerativo que afecta a generaciones de modelos de IA, en el que sus datos sesgados acaban contaminando a la generación siguiente. Al haber sido entrenados con datos contaminados, estos perciben erróneamente la realidad.