Mostrando entradas con la etiqueta Algoritmo. Mostrar todas las entradas
Mostrando entradas con la etiqueta Algoritmo. Mostrar todas las entradas

TEOREMA DE INCOMPLETUD (GÖDEL): 🔎 🌐 👥

la aritmética es incompleta; hay una fbf aritmética que es verdadera, pero no es ni demostrable ni refutable, (Gödel, 1931).
(Haack, 1978).

Los teoremas de incompletitud de Gödel son dos célebres teoremas de lógica matemática demostrados por Kurt Gödel en 1931. Ambos están relacionados con la existencia de proposiciones indecidibles en ciertas teorías aritméticas.

El primer teorema de incompletitud afirma que, bajo ciertas condiciones, ninguna teoría matemática formal capaz de describir los números naturales y la aritmética con suficiente expresividad, es a la vez consistente y completa. Es decir, si los axiomas de dicha teoría no se contradicen entre sí, entonces existen enunciados que no pueden probarse ni refutarse a partir de ellos. En particular, la conclusión del teorema se aplica siempre que la teoría aritmética en cuestión sea recursiva, esto es, una teoría en la que el proceso de deducción pueda llevarse a cabo mediante un algoritmo.

La prueba del teorema es totalmente explícita y en ella se construye una fórmula, denotada habitualmente G en honor a Gödel, para la que dada una demostración de la misma, puede construirse una refutación, y viceversa. Sin embargo, la interpretación natural de dicha sentencia en términos de números naturales es verdadera.

El segundo teorema de incompletitud es un caso particular del primero: afirma que una de las sentencias indecidibles de dicha teoría es aquella que «afirma» la consistencia de la misma. Es decir, que si el sistema de axiomas en cuestión es consistente, no es posible demostrarlo mediante dichos axiomas.
(Wikipedia).

RESOLUCIÓN: 🔎

se trata de una regla o mecanismo de inferencia utilizada por la mayoría de los sistemas de programación lógica, sobre cierto tipo de proposiciones, especialmente para los demostradores automatizados de teoremas.
(Wikipedia).

La programación se relaciona con el uso de la lógica (restringida a cláusulas) para representar y resolver problemas. Este uso es ampliamente aceptado en el ámbito de la inteligencia artificial (IA), donde la idea se resume como sigue: un problema o sujeto de investigación puede describirse mediante un conjunto de fbfs, de preferencia en forma de cláusulas. Si tal descripción es lo suficientemente precisa, la solución al problema o la respuesta a la pregunta planteada en la investigación, es una consecuencia lógica del conjunto de fbfs que describen el problema.

Por lo tanto, encontrar que fbf 𝛷 son consecuencia lógica de un conjunto de fbf 𝛥, es crucial para muchas áreas de la IA, incluyendo la programación lógica. De forma que se busca un procedimiento, algorítmico, que nos permita establecer si 𝛥 ⊨ 𝛷 es el caso, o no.

En el caso de la lógica proposicional, la implicación lógica es decidible, es decir, existe un algoritmo que puede resolver el problema (contestar si ó no para cada caso particular 𝛥 ⊨ 𝛷). Si n es el número de átomos distintos que ocurren en estas fbf, el número de interpretaciones posibles es finito, de hecho es 2. Un algoritmo para computar 𝛥 ⊨ 𝛷 simplemente busca si 𝛷 es verdadero en todos los modelos de 𝛥.

En el contexto de la lógica de primer orden, intuitivamente, vemos que el procedimiento de decisión de la lógica proposicional no es adecuado, pues en este caso podemos tener una cantidad infinita de dominios e interpretaciones diferentes.
(Alejandro Guerra Hernández, Departamento de Inteligencia Artificial, Universidad Veracruzana, México)
Ver articulo completo aquí.

ALGORITMO: 🔎

en matemáticas, lógica, ciencias de la computación y disciplinas relacionadas, un algoritmo (del griego y latín, dixit algorithmus y este a su vez del matemático persa Al-Juarismi) es un conjunto prescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permite llevar a cabo una actividad mediante pasos sucesivos que no generen dudas a quien deba hacer dicha actividad. Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una solución. Los algoritmos son el objeto de estudio de la algoritmia.

En la vida cotidiana, se emplean algoritmos frecuentemente para resolver problemas. Algunos ejemplos son los manuales de usuario, que muestran algoritmos para usar un aparato, o las instrucciones que recibe un trabajador de su patrón. Algunos ejemplos en matemática son el algoritmo de multiplicación, para calcular el producto, el algoritmo de la división para calcular el cociente de dos números, el algoritmo de Euclides para obtener el máximo común divisor de dos enteros positivos, o el método de Gauss para resolver un sistema de ecuaciones lineales.

En términos de programación, un algoritmo es una secuencia de pasos lógicos que permiten solucionar un problema.
(Wikipedia).

CÁLCULO LÓGICO: 🔎

o derivación lógica, es un algoritmo o sistema lógico que permite inferir o deducir un enunciado verdadero a partir de otro u otros que se tienen como válidamente verdaderos.

La inferencia o deducción es una operación lógica que consiste en obtener un enunciado como conclusión a partir de otro u otros, llamados premisas, mediante la aplicación de reglas de inferencia.

Decimos que alguien infiere o deduce "T" de "R" si acepta que si "R" tiene valor de verdad V, entonces, necesariamente, "T" tiene valor de verdad V.

En lo cotidiano utilizamos el razonamiento deductivo; partimos de enunciados empíricos, supuestamente verdaderos y válidos, para concluir en otro enunciado que se deriva de aquellos.

La lógica matemática, como ciencia formal, se ocupa de analizar y sistematizar las reglas que permiten la transformación de unos enunciados (premisas) en otros (conclusiones) con objeto de convertir las operaciones deductivas en un cálculo riguroso y eficaz.

Al aplicar las reglas de este cálculo lógico a los enunciados que forman un argumento, previa la simbolización adecuada de los enunciados en fórmulas o Expresiones bien formadas (fbf) construimos un modelo dentro de un sistema deductivo que, referido al lenguaje ordinario, llamamos de Cálculo de deducción natural.

La representación gráfica de los símbolos (constantes lógicas) no está normalizada, lo que lleva a veces a ciertas dificultades de interpretación.
(Wikipedia)