Razonamiento ontológico en gráficos de conocimiento | de Giuseppe Futia | noviembre de 2024

Una guía práctica de Python para comprender los principios para generar nuevos conocimientos siguiendo procesos lógicos

Figura 1: Un proceso de extremo a extremo que ilustra cómo las declaraciones iniciales conducen a declaraciones inferidas a través del razonamiento ontológico.

RLas capacidades de relajación son un tema ampliamente discutido en el contexto de los sistemas de IA. Estas capacidades suelen estar asociadas con modelos de lenguaje grandes (LLM), que son particularmente efectivos para extraer patrones aprendidos de una gran cantidad de datos.

El conocimiento capturado durante este proceso de aprendizaje permite a los LLM realizar diversas tareas lingüísticas, como responder preguntas y resumir textos, mostrando habilidades que se asemejan al razonamiento humano.

No sirve de nada decir simplemente “los LLM no pueden razonar”, ya que claramente hacen algunas cosas para las cuales los humanos usarían el razonamiento. — Jeremy Howard |
Cofundador Fast.AI – Miembro digital en Stanford

A pesar de su capacidad para identificar y comparar patrones dentro de los datos, los LLM muestran limitaciones en tareas que requieren un razonamiento estructurado y formal, especialmente en campos que exigen procesos lógicos rigurosos.

Estas limitaciones resaltan la distinción entre reconocimiento de patrones y razonamiento lógico adecuado, una diferencia que los humanos no siempre discernimos.