Información

Tabla de contenido:

Información
Información

Vídeo: Información

Vídeo: Información
Vídeo: Información urgente sobre variante Delta 2024, Marzo
Anonim

Navegación de entrada

  • Contenido de entrada
  • Bibliografía
  • Herramientas académicas
  • Vista previa de PDF de amigos
  • Información de autor y cita
  • Volver arriba

Información

Publicado por primera vez el viernes 26 de octubre de 2012; revisión sustantiva vie 14 dic 2018

La filosofía de la información se ocupa del análisis filosófico de la noción de información tanto desde una perspectiva histórica como sistemática. Con el surgimiento de la teoría empirista del conocimiento en la filosofía moderna temprana, el desarrollo de varias teorías matemáticas de la información en el siglo XX y el surgimiento de la tecnología de la información, el concepto de "información" ha conquistado un lugar central en las ciencias y en la sociedad.. Este interés también condujo a la aparición de una rama separada de la filosofía que analiza la información en todas sus formas (Adriaans & van Benthem 2008a, b; Lenski 2010; Floridi 2002, 2011). La información se ha convertido en una categoría central tanto en las ciencias como en las humanidades y la reflexión sobre la información influye en una amplia gama de disciplinas filosóficas que varían desde la lógica (Dretske 1981;van Benthem y van Rooij 2003; van Benthem 2006, ver la entrada sobre lógica e información), epistemología (Simondon 1989) a ética (Floridi 1999) y estética (Schmidhuber 1997a; Adriaans 2008) a ontología (Zuse 1969; Wheeler 1990; Schmidhuber 1997b; Wolfram 2002; Hutter 2010)

No hay consenso sobre la naturaleza exacta del campo de la filosofía de la información. Varios autores han propuesto una filosofía de la información más o menos coherente como un intento de repensar la filosofía desde una nueva perspectiva: por ejemplo, física cuántica (Mugur-Schächter 2002), lógica (Brenner 2008), información semántica (Floridi 2011; Adams & de Moraes 2016, ver la entrada sobre concepciones semánticas de información), sistemas de comunicación y mensajes (Capurro & Holgate 2011) y meta-filosofía (Wu 2010, 2016). Otros (Adriaans & van Benthem 2008a; Lenski 2010) lo ven más como una disciplina técnica con profundas raíces en la historia de la filosofía y las consecuencias para diversas disciplinas como la metodología, la epistemología y la ética. Cualquiera que sea la interpretación de la naturaleza de la filosofía de la información,parece implicar un ambicioso programa de investigación que consta de muchos subproyectos que varían desde la reinterpretación de la historia de la filosofía en el contexto de las teorías modernas de la información, hasta un análisis en profundidad del papel de la información en la ciencia, las humanidades y la sociedad como entero.

El término "información" en el habla coloquial se usa principalmente como un sustantivo en masa abstracto que se usa para denotar cualquier cantidad de datos, código o texto que se almacena, envía, recibe o manipula en cualquier medio. La historia detallada tanto del término "información" como de los diversos conceptos que la acompañan es compleja y, en su mayor parte, aún debe escribirse (Seiffert 1968; Schnelle 1976; Capurro 1978, 2009; Capurro & Hjørland 2003). El significado exacto del término "información" varía en diferentes tradiciones filosóficas y su uso coloquial varía geográficamente y en diferentes contextos pragmáticos. Aunque el análisis de la noción de información ha sido un tema en la filosofía occidental desde sus inicios, el análisis explícito de la información como concepto filosófico es reciente,y se remonta a la segunda mitad del siglo XX. En este momento está claro que la información es un concepto fundamental en las ciencias y las humanidades y en nuestra vida cotidiana. Todo lo que sabemos sobre el mundo se basa en la información que recibimos o recopilamos y, en principio, cada ciencia trata con información. Existe una red de conceptos de información relacionados, con raíces en diversas disciplinas como física, matemática, lógica, biología, economía y epistemología. Todas estas nociones se agrupan alrededor de dos propiedades centrales:con raíces en diversas disciplinas como física, matemática, lógica, biología, economía y epistemología. Todas estas nociones se agrupan alrededor de dos propiedades centrales:con raíces en diversas disciplinas como física, matemática, lógica, biología, economía y epistemología. Todas estas nociones se agrupan alrededor de dos propiedades centrales:

La información es extensa. Central es el concepto de aditividad: la combinación de dos conjuntos de datos independientes con la misma cantidad de información contiene el doble de información que los conjuntos de datos individuales separados. La noción de extensividad surge naturalmente en nuestras interacciones con el mundo que nos rodea cuando contamos y medimos objetos y estructuras. Las concepciones básicas de entidades matemáticas más abstractas, como conjuntos, conjuntos múltiples y secuencias, se desarrollaron temprano en la historia sobre la base de reglas estructurales para la manipulación de símbolos (Schmandt-Besserat 1992). La formalización matemática de la extensividad en términos de la función de registro tuvo lugar en el contexto de la investigación en termodinámica en el siglo XIX (Boltzmann 1866) y principios del siglo XX (Gibbs 1906). Cuando se codifica en términos de sistemas de números multidimensionales más avanzados (números complejos,cuaterniones, octoniones) el concepto de extensividad se generaliza en nociones más sutiles de aditividad que no satisfacen nuestras intuiciones cotidianas. Sin embargo, juegan un papel importante en los desarrollos recientes de la teoría de la información basada en la física cuántica (Von Neumann 1932; Redei y Stöltzner 2001, ver entrada sobre entrelazamiento cuántico e información).

La información reduce la incertidumbre. La cantidad de información que obtenemos crece linealmente con la cantidad por la cual reduce nuestra incertidumbre hasta el momento en que hemos recibido toda la información posible y la cantidad de incertidumbre es cero. La relación entre incertidumbre e información probablemente fue formulada por primera vez por los empiristas (Locke 1689; Hume 1748). Hume observa explícitamente que una elección de una mayor selección de posibilidades brinda más información. Esta observación alcanzó su formulación matemática canónica en la función propuesta por Hartley (1928) que define la cantidad de información que obtenemos cuando seleccionamos un elemento de un conjunto finito. La única función matemática que unifica estas dos intuiciones sobre la amplitud y la probabilidad es la que define la información en términos del registro negativo de la probabilidad: (I (A) = - / log P (A)) (Shannon 1948;Shannon y Weaver, 1949, Rényi, 1961).

Sin embargo, la elegancia de esta fórmula no nos protege de los problemas conceptuales que alberga. En el siglo XX se hicieron varias propuestas para la formalización de conceptos de información:

  • Teorías cualitativas de información

    1. Información semántica: Bar-Hillel y Carnap desarrollaron una teoría de la información semántica (1953). Floridi (2002, 2003, 2011) define la información semántica como datos bien formados, significativos y veraces. Las definiciones formales de información basadas en entropía (Fisher, Shannon, Quantum, Kolmogorov) funcionan en un nivel más general y no miden necesariamente la información en conjuntos de datos verdaderos y significativos, aunque uno podría defender la opinión de que para ser medibles los datos deben estar bien. formado (para una discusión ver sección 6.6 sobre Información lógica y semántica). La información semántica está cerca de nuestra noción ingenua cotidiana de información como algo transmitido por declaraciones verdaderas sobre el mundo.
    2. La información como estado de un agente: el tratamiento lógico formal de nociones como conocimiento y creencia fue iniciado por Hintikka (1962, 1973). Dretske (1981) y van Benthem y van Rooij (2003) estudiaron estas nociones en el contexto de la teoría de la información, cf. van Rooij (2003) sobre preguntas y respuestas, o Parikh & Ramanujam (2003) sobre mensajes generales. También Dunn parece tener esta noción en mente cuando define la información como "lo que queda del conocimiento cuando uno quita la creencia, la justificación y la verdad" (Dunn 2001: 423; 2008). Vigo propuso una teoría de la información sensible a la estructura basada en la complejidad de la adquisición de conceptos por parte de los agentes (Vigo 2011, 2012).
  • Teorías cuantitativas de la información

    1. Función de Nyquist : Nyquist (1924) fue probablemente el primero en expresar la cantidad de "inteligencia" que podría transmitirse dada una cierta velocidad de línea de un sistema telegráfico en términos de una función de registro: (W = k / log m), donde W es la velocidad de transmisión, K es una constante ym son los diferentes niveles de voltaje entre los que se puede elegir.
    2. Información de Fisher: la cantidad de información que una variable aleatoria observable X lleva sobre un parámetro desconocido (theta) del cual depende la probabilidad de X (Fisher 1925).
    3. La función Hartley: (Hartley 1928, Rényi 1961, Vigo 2012). La cantidad de información que obtenemos cuando seleccionamos un elemento de un conjunto finito S bajo distribución uniforme es el logaritmo de la cardinalidad de ese conjunto.
    4. Información de Shannon: la entropía, H, de una variable aleatoria discreta X es una medida de la cantidad de incertidumbre asociada con el valor de X (Shannon 1948; Shannon y Weaver 1949).
    5. Complejidad de Kolmogorov: la información en una cadena binaria x es la longitud del programa más corto p que produce x en una máquina Turing universal de referencia U (Turing 1937; Solomonoff 1960, 1964a, b, 1997; Kolmogorov 1965; Chaitin 1969, 1987).
    6. Medidas de entropía en física: aunque en todos los casos no son estrictamente medidas de información, las diferentes nociones de entropía definidas en física están estrechamente relacionadas con los correspondientes conceptos de información. Mencionamos la entropía de Boltzmann (Boltzmann, 1866) estrechamente relacionada con la función de Hartley (Hartley 1928), la entropía de Gibbs (Gibbs 1906) formalmente equivalente a la entropía de Shannon y varias generalizaciones como la entropía de Tsallis (Tsallis 1988) y la entropía de Rényi (Rényi 1961).
    7. Información cuántica: el qubit es una generalización del bit clásico y se describe mediante un estado cuántico en un sistema de mecánica cuántica de dos estados, que es formalmente equivalente a un espacio vectorial bidimensional sobre los números complejos (Von Neumann 1932; Redei & Stöltzner 2001).

Hasta hace poco, la posibilidad de una unificación de estas teorías generalmente se dudaba (Adriaans & van Benthem 2008a), pero después de dos décadas de investigación, las perspectivas para la unificación parecen mejores.

Los contornos de un concepto unificado de información surgen en las siguientes líneas:

  • La filosofía de la información es una subdisciplina de la filosofía, estrechamente relacionada con la filosofía de la lógica y las matemáticas. La filosofía de la información semántica (Floridi 2011, D'Alfonso 2012, Adams & de Moraes, 2016) nuevamente es una subdisciplina de la filosofía de la información (ver el mapa informativo en la entrada sobre concepciones semánticas de la información). Desde esta perspectiva, la filosofía de la información está interesada en la investigación del tema en el nivel más general: datos, datos bien formados, datos ambientales, etc. La filosofía de la información semántica agrega las dimensiones de significado y veracidad. Es posible interpretar teorías cuantitativas de información en el marco de una filosofía de información semántica (ver sección 6.5 para una discusión en profundidad).
  • Varios conceptos cuantitativos de información están asociados con diferentes narrativas (contar, recibir mensajes, recopilar información, computar) enraizadas en el mismo marco matemático básico. Muchos problemas en filosofía de la información se centran en problemas relacionados en filosofía de las matemáticas. Se han estudiado las conversiones y reducciones entre varios modelos formales (Cover y Thomas 2006; Grünwald y Vitányi 2008; Bais y Farmer 2008). La situación que parece surgir no es diferente del concepto de energía: existen varias subteorías formales sobre la energía (cinética, potencial, eléctrica, química, nuclear) con transformaciones bien definidas entre ellas. Aparte de eso, el término "energía" se usa libremente en el habla coloquial.
  • Los conceptos de información basados en agentes surgen naturalmente cuando extendemos nuestro interés desde la simple medición y la manipulación de símbolos hasta el paradigma más complejo de un agente con conocimiento, creencias, intenciones y libertad de elección. Están asociados con el despliegue de otros conceptos de información.

La aparición de una teoría coherente para medir la información cuantitativamente en el siglo XX está estrechamente relacionada con el desarrollo de la teoría de la informática. En este contexto, son centrales las nociones de universalidad, equivalencia de Turing e invarianza: dado que el concepto de un sistema de Turing define la noción de una computadora universal programable, todos los modelos universales de computación parecen tener el mismo poder. Esto implica que todas las medidas posibles de información definibles para modelos universales de cómputo (funciones recursivas, máquina de Turing, cálculo Lambda, etc.) son asintóticamente invariables. Esto brinda una perspectiva sobre una teoría unificada de la información que podría dominar el programa de investigación en los años venideros.

  • 1. Información en el discurso coloquial
  • 2. Historia del término y el concepto de información

    • 2.1 Filosofía clásica
    • 2.2 Filosofía medieval
    • 2.3 Filosofía moderna
    • 2.4 Desarrollo histórico del significado del término "información"
  • 3. Elementos básicos de las teorías modernas de la información

    • 3.1 Idiomas
    • 3.2 Códigos óptimos
    • 3.3 números
    • 3.4 Física
  • 4. Desarrollos en filosofía de la información

    • 4.1 Popper: información como grado de falsabilidad
    • 4.2 Shannon: información definida en términos de probabilidad
    • 4.3 Solomonoff, Kolmogorov, Chaitin: información como la duración de un programa
  • 5. Consideraciones sistemáticas

    • 5.1 Filosofía de la información como una extensión de la filosofía de las matemáticas

      • 5.1.1 La información como fenómeno natural
      • 5.1.2 Manipulación y extensión de símbolos: conjuntos, conjuntos múltiples y cadenas
      • 5.1.3 Conjuntos y números
      • 5.1.4 Medición de información en números
      • 5.1.5 Medición de información y probabilidades en conjuntos de números
      • 5.1.6 Perspectivas para la unificación
      • 5.1.7 Procesamiento de información y flujo de información.
      • 5.1.8 Información, números primos y factores
      • 5.1.9 Incompletitud de la aritmética
    • 5.2 Información y cálculo simbólico

      • 5.2.1 Máquinas de Turing
      • 5.2.2 Universalidad e invariancia
    • 5.3 Información cuántica y más allá
  • 6. Anomalías, paradojas y problemas.

    • 6.1 La paradoja de la búsqueda sistemática
    • 6.2 Búsqueda efectiva en conjuntos finitos
    • 6.3 El problema P versus NP, complejidad descriptiva versus complejidad temporal
    • 6.4 Selección de modelo y compresión de datos
    • 6.5 Determinismo y termodinámica
    • 6.6 Información lógica y semántica
    • 6.7 Significado y cálculo
  • 7. Conclusión
  • Bibliografía
  • Herramientas académicas
  • Otros recursos de internet
  • Entradas relacionadas

1. Información en el discurso coloquial

La falta de precisión y la utilidad universal del término "información" van de la mano. En nuestra sociedad, en la que exploramos la realidad mediante instrumentos e instalaciones de complejidad cada vez mayor (telescopios, ciclotrones) y nos comunicamos a través de medios más avanzados (periódicos, radio, televisión, SMS, Internet), es útil tener un resumen sustantivo en masa para el "material" creado por los instrumentos y que "fluye" a través de estos medios. Históricamente, este significado general surgió bastante tarde y parece estar asociado con el surgimiento de los medios de comunicación y las agencias de inteligencia (Devlin y Rosenberg 2008; Adriaans y van Benthem 2008b).

En el discurso coloquial actual, el término información se usa de varias formas poco definidas y, a menudo, incluso conflictivas. La mayoría de las personas, por ejemplo, considerarían válida la siguiente inferencia prima facie:

Si obtengo la información que p, entonces sé que p.

Las mismas personas probablemente no tendrían problemas con la afirmación de que "los servicios secretos a veces distribuyen información falsa", o con la frase "La información proporcionada por los testigos del accidente fue vaga y conflictiva". La primera afirmación implica que la información necesariamente es verdadera, mientras que las otras afirmaciones permiten la posibilidad de que la información sea falsa, conflictiva y vaga. En la comunicación cotidiana, estas inconsistencias no parecen crear grandes problemas y, en general, está claro por el contexto pragmático qué tipo de información se designa. Estos ejemplos son suficientes para argumentar que las referencias a nuestras intuiciones como hablantes del idioma inglés son de poca ayuda en el desarrollo de una rigurosa teoría filosófica de la información. Parece que no hay presión pragmática en la comunicación cotidiana para converger en una definición más exacta de la noción de información.

2. Historia del término y el concepto de información

Hasta la segunda mitad del siglo XX, casi ningún filósofo moderno consideraba la "información" como un concepto filosófico importante. El término no tiene lema en la conocida enciclopedia de Edwards (1967) y no se menciona en Windelband (1903). En este contexto, el interés por la "Filosofía de la información" es un desarrollo reciente. Sin embargo, en retrospectiva desde la perspectiva de una historia de ideas, la reflexión sobre la noción de "información" ha sido un tema predominante en la historia de la filosofía. La reconstrucción de esta historia es relevante para el estudio de la información.

Un problema con cualquier enfoque de "historia de ideas" es la validación de la suposición subyacente de que el concepto que uno está estudiando tiene de hecho continuidad sobre la historia de la filosofía. En el caso del análisis histórico de la información, uno podría preguntarse si el concepto de "información" discutido por Agustín tiene alguna conexión con la información de Shannon, además de una semejanza de los términos. Al mismo tiempo, uno podría preguntarse si el "método histórico y simple" de Locke es una contribución importante al surgimiento del concepto moderno de información, aunque en sus escritos Locke apenas usa el término "información" en un sentido técnico. Como se muestra a continuación, hay un conglomerado de ideas que implica una noción de información que se ha desarrollado desde la antigüedad hasta los últimos tiempos, pero es necesario seguir estudiando la historia del concepto de información.

Un tema recurrente importante en el análisis filosófico temprano del conocimiento es el paradigma de manipular un trozo de cera: ya sea simplemente deformandolo, imprimiendo un anillo de sello o escribiendo caracteres en él. El hecho de que la cera puede tomar diferentes formas y cualidades secundarias (temperatura, olor, tacto) mientras que el volumen (extensión) permanece igual, lo convierte en una rica fuente de analogías, naturales para la cultura griega, romana y medieval, donde se usaba cera para escultura, escritura (tabletas de cera) y pintura encáustica. Este tema se encuentra en escritos de autores tan diversos como Demócrito, Platón, Aristóteles, Teofrasto, Cicerón, Agustín, Avicena, Duns Scotus, Aquino, Descartes y Locke.

2.1 Filosofía clásica

En filosofía clásica, "información" era una noción técnica asociada con una teoría del conocimiento y la ontología que se originó en la teoría de las formas de Platón (427-347 a. C.), desarrollada en varios de sus diálogos (Phaedo, Fedro, Simposio, Timeo, República). Varios caballos individuales imperfectos en el mundo físico podrían identificarse como caballos, porque participaron en la idea estática atemporal y espacial de "equidad" en el mundo de las ideas o formas. Cuando autores posteriores como Cicero (106–43 a. C.) y Agustín (354–430 d. C.) discutieron conceptos platónicos en latín, usaron los términos informare e informatio como traducción de términos técnicos griegos como eidos (esencia), idea (idea), errores tipográficos (tipo), morfe (forma) y prolepsis (representación). La raíz "forma" todavía es reconocible en la palabra en-forma-ación (Capurro y Hjørland 2003). La teoría de las formas de Platón fue un intento de formular una solución para varios problemas filosóficos: la teoría de las formas media entre una concepción ontológica estática (Parménides, ca. 450 aC) y dinámica (Herakleitos, ca. 535–475 aC) de la realidad y Ofrece un modelo para el estudio de la teoría del conocimiento humano. Según Theophrastus (371–287 a. C.), la analogía de la tableta de cera se remonta a Democritos (ca. 460–380 / 370 a. C.) (De Sensibus 50). En Theaetetus (191c, d) Platón compara la función de nuestra memoria con una tableta de cera en la que nuestras percepciones y pensamientos están impresos como un anillo de sello que imprime impresiones en cera. Tenga en cuenta que la metáfora de la impresión de símbolos en cera es esencialmente espacial (extensa) y no se puede conciliar fácilmente con la interpretación espacial de las ideas apoyadas por Platón.

Uno tiene una idea del papel que juega la noción de "forma" en la metodología clásica si considera la doctrina de Aristóteles (384–322 a. C.) sobre las cuatro causas. En la metodología aristotélica, comprender un objeto implicaba comprender cuatro aspectos diferentes:

Causa material: que como resultado de cuya presencia surge algo, por ejemplo, el bronce de una estatua y la plata de una copa, y las clases que contienen estos

Causa formal: la forma o patrón; es decir, la fórmula esencial y las clases que la contienen, por ejemplo, la relación 2: 1 y el número en general es la causa de la octava y las partes de la fórmula.

Causa eficiente: la fuente del primer comienzo de cambio o descanso; por ejemplo, el hombre que planifica es una causa, y el padre es la causa del niño, y en general lo que produce es la causa de lo que se produce, y lo que cambia de lo que cambia.

Causa final: lo mismo que "fin"; es decir, la causa final; por ejemplo, ya que el "fin" de caminar es la salud. ¿Por qué camina un hombre? "Para estar sanos", decimos, y al decir esto consideramos que hemos suministrado la causa. (Aristóteles, Metafísica 1013a)

Tenga en cuenta que Aristóteles, que rechaza la teoría de las formas de Platón como entidades astemporales atemporales, todavía usa "forma" como un concepto técnico. Este pasaje establece que conocer la forma o estructura de un objeto, es decir, la información, es una condición necesaria para comprenderlo. En este sentido, la información es un aspecto crucial de la epistemología clásica.

El hecho de que la relación 2: 1 se cita como ejemplo también ilustra la profunda conexión entre la noción de formas y la idea de que el mundo estaba gobernado por principios matemáticos. Platón creía bajo la influencia de una tradición más antigua de Pitágoras (Pitágoras 572 – ca. 500 a. C.) que “todo lo que emerge y sucede en el mundo” podría medirse por medio de números (Politicus 285a). En varias ocasiones, Aristóteles menciona el hecho de que Platón asocia ideas con números (Vogel 1968: 139). Aunque las teorías matemáticas formales sobre la información solo surgieron en el siglo XX, y hay que tener cuidado de no interpretar la noción griega de un número en ningún sentido moderno, la idea de que la información era esencialmente una noción matemática se remonta a la filosofía clásica:La forma de una entidad se concibió como una estructura o patrón que podría describirse en términos de números. Tal forma tenía tanto un aspecto ontológico como uno epistemológico: explica la esencia y la comprensibilidad del objeto. El concepto de información desde el comienzo de la reflexión filosófica ya estaba asociado con la epistemología, la ontología y las matemáticas.

Dos problemas fundamentales que no se explican por la teoría clásica de ideas o formas son 1) el acto real de conocer un objeto (es decir, si veo un caballo de qué manera se activa la idea de un caballo en mi mente) y 2) El proceso de pensar como manipulación de ideas. Aristóteles trata estos temas en De Anime, invocando la analogía sello-anillo-impresión-en-cera:

Por "sentido" se entiende lo que tiene el poder de recibir en sí las formas sensibles de las cosas sin la materia. Esto debe concebirse como la forma en que un trozo de cera toma la impresión de un anillo sin el hierro ni el oro; Decimos que lo que produce la impresión es un sello de bronce o de oro, pero su constitución metálica particular no hace ninguna diferencia: de manera similar, el sentido se ve afectado por lo que está coloreado, aromatizado o sonando, pero es indiferente lo que en cada caso sustancia es; lo único que importa es qué calidad tiene, es decir, en qué proporción se combinan sus componentes. (De Anime, Libro II, cap. 12)

¿No hemos eliminado ya la dificultad de la interacción que involucra un elemento común, cuando dijimos que la mente es, en cierto sentido, potencialmente lo que sea pensable, aunque en realidad no es nada hasta que se ha pensado? Lo que piensa debe estar en él, tal como se puede decir que los personajes están en una tableta de escritura en la que todavía no hay nada escrito: esto es exactamente lo que sucede con la mente. (De Anime, Libro III, Cap. 4)

Estos pasajes son ricos en ideas influyentes y, en retrospectiva, pueden leerse como programáticos para una filosofía de la información: el proceso de información puede concebirse como la impresión de los caracteres en una tableta de cera (tabula rasa), el pensamiento puede analizarse en términos de manipulación de símbolos

2.2 Filosofía medieval

A lo largo de la Edad Media, los pensadores sucesivos retoman la reflexión sobre el concepto de información. Ilustrativo de la influencia aristotélica es el pasaje de Agustín en el libro De Trinitate XI. Aquí analiza la visión como una analogía para la comprensión de la Trinidad. Hay tres aspectos: la forma corpórea en el mundo exterior, la información por el sentido de la visión y la forma resultante en la mente. Para este proceso de información, Agustín usa la imagen de un anillo de sello que deja una impresión en cera (De Trinitate, XI Cap 2 par 3). Capurro (2009) observa que este análisis puede interpretarse como una versión temprana del concepto técnico de "enviar un mensaje" en la teoría moderna de la información, pero la idea es más antigua y es un tema común en el pensamiento griego (Plato Theaetetus 191c, d; Aristóteles De Anime, Libro II, Capítulo 12, Libro III, Capítulo 4;Theophrastus De Sensibus 50).

La noción tabula rasa se desarrolló más tarde en la teoría del conocimiento de Avicena (c. 980-1037 CE):

El intelecto humano al nacer es más bien como una tabula rasa, una potencialidad pura que se actualiza a través de la educación y llega a conocerse. El conocimiento se alcanza a través de la familiaridad empírica con los objetos de este mundo de los cuales se abstraen conceptos universales. (Sajjad 2006 [Otros recursos de Internet [en adelante OIR])

La idea de un desarrollo tabula rasa de la mente humana fue el tema de una novela Hayy ibn Yaqdhan del filósofo árabe andaluz Ibn Tufail (1105-1185 CE, conocido como "Abubacer" o "Ebn Tophail" en Occidente). Esta novela describe el desarrollo de un niño aislado en una isla desierta. Una traducción posterior en latín bajo el título Philosophus Autodidactus (1761) influyó en el empirista John Locke en la formulación de su doctrina tabula rasa.

Además de la tensión creativa permanente entre la teología y la filosofía, el pensamiento medieval, después del redescubrimiento de la metafísica de Aristóteles en el siglo XII inspirado por los eruditos árabes, puede caracterizarse como una interpretación y desarrollo elaborados y sutiles de la teoría clásica, principalmente aristotélica. Reflexiones sobre la noción de información son tomadas, bajo la influencia de Avicena, por pensadores como Aquino (1225-1274 CE) y Duns Scotus (1265 / 66-1308 CE). Cuando Aquino discute la cuestión de si los ángeles pueden interactuar con la materia, se refiere a la doctrina aristotélica del hilomorfismo (es decir, la teoría de que la sustancia consiste en materia (hylo (madera), materia) y forma (morphè)). Aquí Aquino traduce esto como la información de la materia (informatio materiae) (Summa Theologiae, 1a 110 2; Capurro 2009). Duns Scotus se refiere a la información en el sentido técnico cuando discute la teoría de la visión de Agustín en De Trinitate, XI Cap 2 par 3 (Duns Scotus, 1639, "De imagine", Ordinatio, I, d.3, p.3).

La tensión que ya existía en la filosofía clásica entre el idealismo platónico (universalia ante res) y el realismo aristotélico (universalia in rebus) se recaptura como el problema de los universales: ¿existen cualidades universales como la "humanidad" o la idea de un caballo aparte del individuo? entidades que los instancian? Es en el contexto de su rechazo de los universales que Ockham (c. 1287–1347 CE) presenta su conocida navaja: las entidades no deben multiplicarse más allá de la necesidad. A lo largo de sus escritos, Aquino y Escoto usan los términos latinos informatio e informare en un sentido técnico, aunque esta terminología no es utilizada por Ockham.

2.3 Filosofía moderna

La historia del concepto de información en la filosofía moderna es complicada. Probablemente a partir del siglo XIV, el término "información" surgió en varios idiomas europeos en desarrollo en el significado general de "educación" e "indagación". El diccionario histórico francés de Godefroy (1881) da acción de ex, instrucción, enquête, ciencia, talento como primeros significados de "información". El término también se usó explícitamente para consultas legales (Dictionnaire du Moyen Français (1330–1500) 2015). Debido a este uso coloquial, el término "información" pierde su asociación con el concepto de "forma" gradualmente y aparece cada vez menos en un sentido formal en los textos filosóficos.

Al final de la Edad Media, la sociedad y la ciencia están cambiando fundamentalmente (Hazard 1935; Ong 1958; Dijksterhuis 1986). En un proceso largo y complejo, la metodología aristotélica de las cuatro causas se transformó para satisfacer las necesidades de la ciencia experimental:

  1. La Causa Material se desarrolló en la noción moderna de materia.
  2. La causa formal fue reinterpretada como forma geométrica en el espacio.
  3. La causa eficiente se redefinió como interacción mecánica directa entre cuerpos materiales.
  4. La causa final fue desestimada por no ser científica. Debido a esto, los contemporáneos de Newton tuvieron dificultades con el concepto de la fuerza de gravedad en su teoría. La gravedad como acción a distancia parecía ser una reintroducción de las causas finales.

En este contexto cambiante, la analogía de la impresión de cera se reinterpreta. Los empiristas desarrollan una versión prototipo del concepto moderno de información como la estructura de un conjunto o secuencia de ideas simples, pero dado que se pierde el significado técnico del término "información", esta teoría del conocimiento nunca se identifica como un nueva "teoría de la información".

La consecuencia de este cambio en la metodología es que solo los fenómenos que pueden explicarse en términos de interacción mecánica entre cuerpos materiales pueden estudiarse científicamente. Esto implica en un sentido moderno: la reducción de propiedades intensivas a propiedades extensivas medibles. Para Galileo, esta idea es programática:

Para excitar en nosotros gustos, olores y sonidos, creo que no se requiere nada en cuerpos externos, excepto formas, números y movimientos lentos o rápidos. (Galileo 1623 [1960: 276)

Estas ideas más tarde condujeron a la doctrina de la diferencia entre las cualidades primarias (espacio, forma, velocidad) y las cualidades secundarias (calor, sabor, color, etc.). En el contexto de la filosofía de la información, las observaciones de Galileo sobre la calidad secundaria del "calor" son de particular importancia, ya que sientan las bases para el estudio de la termodinámica en el siglo XIX:

Después de haber demostrado que muchas sensaciones que se supone que son cualidades que residen en objetos externos no tienen existencia real excepto en nosotros, y fuera de nosotros mismos son simples nombres, ahora digo que me inclino a creer que el calor es de este personaje. Aquellos materiales que producen calor en nosotros y nos hacen sentir calor, que se conocen con el nombre general de "fuego", serían una multitud de partículas diminutas que tienen ciertas formas y se mueven con ciertas velocidades. (Galileo 1623 [1960: 277)

Un pensador fundamental en esta transformación es René Descartes (1596–1650 CE). En sus Meditationes, después de "probar" que la materia (res extensa) y la mente (res cogitans) son sustancias diferentes (es decir, formas de existir independientemente), la cuestión de la interacción entre estas sustancias se convierte en un problema. La maleabilidad de la cera es para Descartes un argumento explícito contra la influencia de la res extensa en los res cogitans (Meditationes II, 15). El hecho de que una pieza de cera pierda su forma y otras cualidades fácilmente cuando se calienta, implica que los sentidos no son adecuados para la identificación de objetos en el mundo. Por lo tanto, el verdadero conocimiento solo puede alcanzarse mediante la "inspección de la mente". Aquí la metáfora de la cera que durante más de 1500 años se utilizó para explicar la impresión sensorial se utiliza para argumentar en contra de la posibilidad de alcanzar el conocimiento a través de los sentidos. Como la esencia de la res extensa es la extensión, el pensamiento fundamental no puede entenderse como un proceso espacial. Descartes todavía usa los términos "forma" e "idea" en el sentido original no geométrico escolástico (atemporal, aspacial). Un ejemplo es la breve prueba formal de la existencia de Dios en la segunda respuesta a Mersenne en Meditationes de Prima PhilosophiaUn ejemplo es la breve prueba formal de la existencia de Dios en la segunda respuesta a Mersenne en Meditationes de Prima PhilosophiaUn ejemplo es la breve prueba formal de la existencia de Dios en la segunda respuesta a Mersenne en Meditationes de Prima Philosophia

Utilizo el término idea para referirme a la forma de cualquier pensamiento dado, cuya percepción inmediata me hace consciente del pensamiento.

(Idea nomine intelligo cujuslibet cogitationis formam illam, per cujus inmediatotam percepciónem ipsius ejusdem cogitationis consciente suma)

Los llamo "ideas" dice Descartes

solo en la medida en que marcan la diferencia en la mente misma cuando informan esa parte del cerebro.

(sed tantum quatenus mentem ipsam en illam cerebri partem conversam informant). (Descartes, 1641, Ad Secundas Objections, Rationes, Dei existentiam & anime distinguem probantes, más Geometrico dispositae.)

Debido a que la res extensa y las res cogitans son sustancias diferentes, el acto de pensar nunca puede ser emulado en el espacio: las máquinas no pueden tener la facultad universal de la razón. Descartes da dos motivaciones separadas:

De estos, el primero es que nunca podrían usar palabras u otros signos dispuestos de una manera que sea competente para nosotros para declarar nuestros pensamientos a los demás: (…) La segunda prueba es que, aunque tales máquinas pueden ejecutar muchas cosas con Igual o tal vez mayor perfección que cualquiera de nosotros, sin duda, fracasarían en ciertos otros a partir de los cuales se podría descubrir que no actuaron a partir del conocimiento, sino únicamente de la disposición de sus órganos: porque la razón es un instrumento universal. que por igual está disponible en cada ocasión, estos órganos, por el contrario, necesitan un arreglo particular para cada acción particular; por lo que debe ser moralmente imposible que exista en cualquier máquina una diversidad de órganos suficiente para permitirle actuar en todos los casos de la vida, de la manera en que nuestra razón nos permite actuar.(Discurso de la méthode, 1647)

El pasaje es relevante ya que argumenta directamente en contra de la posibilidad de la inteligencia artificial e incluso podría interpretarse como un argumento en contra de la posibilidad de una máquina de Turing universal: la razón como instrumento universal nunca puede ser emulada en el espacio. Esta concepción está en oposición al concepto moderno de información que como una cantidad medible es esencialmente espacial, es decir, extensa (pero en un sentido diferente del de Descartes).

Descartes no presenta una nueva interpretación de las nociones de forma e idea, pero prepara el escenario para un debate sobre la naturaleza de las ideas que evoluciona en torno a dos posiciones opuestas:

Racionalismo: la noción cartesiana de que las ideas son innatas y, por lo tanto, a priori. Esta forma de racionalismo implica una interpretación de la noción de ideas y formas como estructuras atemporales, espaciales pero complejas, es decir, la idea de "un caballo" (es decir, con cabeza, cuerpo y piernas). También coincide bien con la interpretación del sujeto conocedor como un ser creado (ens creatu). Dios creó al hombre según su propia imagen y así proporcionó a la mente humana un conjunto adecuado de ideas para comprender su creación. En esta teoría, el crecimiento del conocimiento es a priori limitado. La creación de nuevas ideas ex nihilo es imposible. Esta visión es difícil de conciliar con el concepto de ciencia experimental.

Empirismo: los conceptos se construyen en la mente a posteriori sobre la base de ideas asociadas con impresiones sensoriales. Esta doctrina implica una nueva interpretación del concepto de idea como:

cualquier cosa que sea objeto de comprensión cuando un hombre piensa … lo que sea que se entienda por fantasma, noción, especie o lo que sea que la mente pueda emplear al pensar. (Locke 1689, bk I, cap.1, párr.8)

Aquí las ideas se conciben como elementos básicos del conocimiento humano y la reflexión. Esto encaja bien con las demandas de la ciencia experimental. La desventaja es que la mente nunca puede formular verdades apodeícticas sobre la causa y los efectos y la esencia de las entidades observadas, incluida su propia identidad. El conocimiento humano se vuelve esencialmente probabilístico (Locke 1689: bk I, cap. 4, párrafo 25).

La reinterpretación de Locke de la noción de idea como un "marcador de posición estructural" para cualquier entidad presente en la mente es un paso esencial en el surgimiento del concepto moderno de información. Como estas ideas no están involucradas en la justificación del conocimiento apodeíctico, la necesidad de enfatizar la naturaleza atemporal y espacial de las ideas desaparece. La construcción de conceptos sobre la base de una colección de ideas elementales basadas en la experiencia sensorial abre la puerta a una reconstrucción del conocimiento como una propiedad extensa de un agente: más ideas implica un conocimiento más probable.

En la segunda mitad del siglo XVII, la teoría formal de la probabilidad es desarrollada por investigadores como Pascal (1623-1662), Fermat (1601 o 1606-1665) y Christiaan Huygens (1629-1695). El trabajo De ratiociniis en ludo aleae de Huygens fue traducido al inglés por John Arbuthnot (1692). Para estos autores, el mundo era esencialmente mecanicista y, por lo tanto, determinista, la probabilidad era una cualidad del conocimiento humano causada por su imperfección:

Es imposible que un dado, con tal fuerza y dirección determinadas, no caiga en ese lado determinado, solo que no sé la fuerza y la dirección que lo hace caer en ese lado determinado, y por lo tanto llámalo Chance, que no es más que la falta de arte; … (John Arbuthnot Of the Laws of Chance (1692), prefacio)

Este texto probablemente influyó en Hume, quien fue el primero en unir la teoría de la probabilidad formal con la teoría del conocimiento:

Aunque no exista el azar en el mundo; nuestra ignorancia de la causa real de cualquier evento tiene la misma influencia en la comprensión y genera una especie similar de creencia u opinión. (…) Si un tinte se marcara con una figura o número de puntos en cuatro lados, y con otra figura o número de puntos en los dos lados restantes, sería más probable que apareciera el primero que el segundo; sin embargo, si tuviera mil lados marcados de la misma manera, y solo un lado diferente, la probabilidad sería mucho mayor, y nuestra creencia o expectativa del evento sería más estable y segura. Este proceso del pensamiento o razonamiento puede parecer trivial y obvio; pero para aquellos que lo consideran de manera más restringida, puede, quizás, proporcionar materia para especulaciones curiosas. (Hume 1748: Sección VI, "Sobre la probabilidad" 1)

Aquí el conocimiento sobre el futuro como un grado de creencia se mide en términos de probabilidad, que a su vez se explica en términos del número de configuraciones que puede tener un sistema determinista en el mundo. Los componentes básicos de una teoría moderna de la información están en su lugar. Con este nuevo concepto de conocimiento, los empiristas sentaron las bases para el desarrollo posterior de la termodinámica como una reducción de la calidad secundaria del calor a las cualidades primarias de los cuerpos.

Al mismo tiempo, el término "información" parece haber perdido gran parte de su significado técnico en los escritos de los empiristas, por lo que este nuevo desarrollo no se designa como una nueva interpretación de la noción de "información". Locke a veces usa la frase que nuestros sentidos nos "informan" sobre el mundo y ocasionalmente usa la palabra "información".

Para qué información, qué conocimiento, lleva esta proposición, a saber. ¿"El plomo es un metal" para un hombre que conoce la idea compleja que significa el nombre plomo? (Locke 1689: bk IV, cap. 8, párr. 4)

Hume parece usar la información de la misma manera casual cuando observa:

Dos objetos, aunque se parecen perfectamente entre sí, e incluso aparecen en el mismo lugar en diferentes momentos, pueden ser numéricamente diferentes: y como el poder, por el cual un objeto produce otro, nunca es reconocible simplemente por su idea, es evidente causa y El efecto son las relaciones, de las cuales recibimos información de la experiencia, y no de ningún razonamiento abstracto o reflexión. (Hume 1739: Parte III, sección 1)

La metodología empirista no está exenta de problemas. El mayor problema es que todo el conocimiento se vuelve probabilístico y a posteriori. Immanuel Kant (1724–1804) fue uno de los primeros en señalar que la mente humana comprende los metaconceptos del espacio, el tiempo y la causalidad que nunca pueden entenderse como resultado de una mera combinación de "ideas".. Además, estas intuiciones nos permiten formular ideas científicas con certeza: es decir, el hecho de que la suma de los ángulos de un triángulo en el espacio euclidiano es de 180 grados. Este problema no puede explicarse en el marco empírico. Si el conocimiento se crea mediante la combinación de ideas, entonces debe existir una síntesis a priori de ideas en la mente humana. Según Kant, esto implica que la mente humana puede evaluar su propia capacidad para formular juicios científicos. En su Kritik der reinen Vernunft (1781) Kant desarrolló la filosofía trascendental como una investigación de las condiciones necesarias del conocimiento humano. Aunque el programa trascendental de Kant no contribuyó directamente al desarrollo del concepto de información, sí influyó en la investigación sobre los fundamentos de las matemáticas y el conocimiento relevantes para este tema en el siglo XIX y XX: por ejemplo, el trabajo de Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper y Quine.sí influyó en la investigación sobre los fundamentos de las matemáticas y el conocimiento relevantes para este tema en el siglo XIX y XX: por ejemplo, el trabajo de Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper y Quine.sí influyó en la investigación sobre los fundamentos de las matemáticas y el conocimiento relevantes para este tema en el siglo XIX y XX: por ejemplo, el trabajo de Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper y Quine.

2.4 Desarrollo histórico del significado del término "información"

La historia del término "información" está estrechamente relacionada con el estudio de problemas centrales en epistemología y ontología en la filosofía occidental. Después de un comienzo como término técnico en textos clásicos y medievales, el término "información" casi desapareció del discurso filosófico en la filosofía moderna, pero ganó popularidad en el discurso coloquial. Gradualmente, el término obtuvo el estado de un sustantivo en masa abstracto, un significado que es ortogonal al significado clásico orientado al proceso. De esta forma fue recogido por varios investigadores (Fisher 1925; Shannon 1948) en el siglo XX que introdujeron métodos formales para medir la "información". Esto, a su vez, condujo a un resurgimiento del interés filosófico en el concepto de información. Esta compleja historia parece ser una de las principales razones de las dificultades para formular una definición de un concepto unificado de información que satisfaga todas nuestras intuiciones. Al menos tres significados diferentes de la palabra "información" son históricamente relevantes:

La "información" como el proceso de ser informado

Este es el significado más antiguo que uno encuentra en los escritos de autores como Cicero (106–43 a. C.) y Agustín (354–430 CE) y se pierde en el discurso moderno, aunque la asociación de información con procesos (es decir, computación, flujo o enviando un mensaje) todavía existe. En la filosofía clásica se podría decir que cuando reconozco un caballo como tal, entonces la "forma" de un caballo se planta en mi mente. Este proceso es mi "información" de la naturaleza del caballo. También el acto de enseñar podría referirse a la "información" de un alumno. En el mismo sentido, se podría decir que un escultor crea una escultura "informando" a una pieza de mármol. La tarea del escultor es la "información" de la estatua (Capurro y Hjørland 2003). Este significado orientado al proceso sobrevivió bastante tiempo en el discurso de Europa occidental:incluso en el siglo dieciocho, Robinson Crusoe podría referirse a la educación de su siervo el viernes como su "información" (Defoe 1719: 261). Berkeley también lo utiliza en este sentido: "Me encanta la información sobre todos los temas que se me presentan, y especialmente sobre los que son más importantes" (Diálogo Alciphron 1, Sección 5, Párrafo 6/10, ver Berkeley 1732).

"Información" como estado de un agente

es decir, como resultado del proceso de ser informado. Si uno le enseña a un alumno el teorema de Pitágoras, entonces, una vez completado este proceso, se puede decir que el alumno "tiene la información sobre el teorema de Pitágoras". En este sentido, el término "información" es el resultado de la misma forma sospechosa de fundamentación de un verbo (informare (gt) informatio) que muchos otros términos técnicos en filosofía (sustancia, conciencia, sujeto, objeto). Este tipo de formación de términos es notorio por las dificultades conceptuales que genera.¿Se puede deducir el hecho de que "tengo" conciencia del hecho de que soy consciente? ¿Se puede deducir el hecho de que "tengo" información del hecho de que he sido informado? La transformación a este significado fundamentado moderno parece haber sido gradual y parece haber sido general en Europa occidental, al menos desde mediados del siglo XV. En el renacimiento, un erudito podría ser referido como "un hombre de información", de la misma manera que ahora podríamos decir que alguien recibió una educación (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). En "Emma" de Jane Austen se puede leer: "Sr. Martin, supongo, no es un hombre de información más allá de la línea de su propio negocio. Él no lee”(Austen 1815: 21).de la misma manera que ahora podríamos decir que alguien recibió una educación (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). En "Emma" de Jane Austen se puede leer: "Sr. Martin, supongo, no es un hombre de información más allá de la línea de su propio negocio. Él no lee”(Austen 1815: 21).de la misma manera que ahora podríamos decir que alguien recibió una educación (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). En "Emma" de Jane Austen se puede leer: "Sr. Martin, supongo, no es un hombre de información más allá de la línea de su propio negocio. Él no lee”(Austen 1815: 21).

"Información" como disposición para informar

es decir, como la capacidad de un objeto para informar a un agente. Cuando el acto de enseñarme el teorema de Pitágoras me deja con información sobre este teorema, es natural suponer que un texto en el que se explica el teorema realmente "contiene" esta información. El texto tiene la capacidad de informarme cuando lo leo. En el mismo sentido, cuando recibí información de un maestro, soy capaz de transmitir esta información a otro alumno. Así, la información se convierte en algo que se puede almacenar y medir. Este último concepto de información como un sustantivo en masa abstracto ha recibido una amplia aceptación en la sociedad moderna y ha encontrado su forma definitiva en el siglo XIX, permitiendo a Sherlock Homes hacer la siguiente observación:"… amigo Lestrade tenía información en sus manos cuyo valor no conocía" ("La aventura del soltero noble", Conan Doyle 1892). La asociación con las nociones filosóficas técnicas como "forma" e "informar" se ha desvanecido de la conciencia general, aunque todavía existe la asociación entre información y procesos como el almacenamiento, la recopilación, la informática y la enseñanza.

3. Elementos básicos de las teorías modernas de la información

En retrospectiva, muchas nociones que tienen que ver con sistemas de código óptimos, lenguajes ideales y la asociación entre computación y lenguaje de procesamiento han sido temas recurrentes en la reflexión filosófica desde el siglo XVII.

3.1 Idiomas

Una de las propuestas más elaboradas para un lenguaje "filosófico" universal fue hecha por el obispo John Wilkins: "Un ensayo sobre un personaje real y un lenguaje filosófico" (1668). El proyecto de Wilkins consistió en un elaborado sistema de símbolos que supuestamente estaban asociados con conceptos inequívocos en la realidad. Propuestas como estas hicieron a los filósofos sensibles a las profundas conexiones entre el lenguaje y el pensamiento. La metodología empirista hizo posible concebir el desarrollo del lenguaje como un sistema de signos convencionales en términos de asociaciones entre ideas en la mente humana. El tema que actualmente se conoce como el problema de la conexión a tierra de los símbolos (cómo adquieren los signos arbitrarios su significado intersubjetivo) fue una de las preguntas más debatidas en el siglo XVIII en el contexto del problema del origen de las lenguas. Diversos pensadores como Vico, Condillac, Rousseau, Diderot, Herder y Haman hicieron contribuciones. La pregunta central era si el lenguaje fue dado a priori (por Dios) o si fue construido y, por lo tanto, una invención del hombre mismo. Típico fue el concurso emitido por la Real Academia de Ciencias Prusiana en 1769:

Supongamos que los hombres abandonados a las facultades naturales, ¿son en estado de inventores? Et par quels moyens parviendront-ils d'eux-mêmes à cette invención?

Suponiendo que los hombres abandonados a sus facultades naturales, ¿son capaces de inventar el lenguaje y por qué medios llegarán a este invento? [1]

La controversia se prolongó durante más de un siglo sin ninguna conclusión y en 1866 la Sociedad Lingüística de París (Société de Linguistique de Paris) desterró el tema de su arena. [2]

Filosóficamente más relevante es el trabajo de Leibniz (1646-1716) sobre una llamada característica universal: la noción de un cálculo lógico universal que sería el vehículo perfecto para el razonamiento científico. Una presuposición central en la filosofía de Leibniz es que un lenguaje de la ciencia tan perfecto es en principio posible debido a la naturaleza perfecta del mundo como la creación de Dios (ratio essendi = ration cognoscendi, el origen del ser es el origen del conocimiento). Este principio fue rechazado por Wolff (1679-1754) quien sugirió una combinatoria característica más orientada heurísticamente (van Peursen 1987). Estas ideas tuvieron que esperar a pensadores como Boole (1854, Una investigación de las leyes del pensamiento), Frege (1879, Begriffsschrift),Peirce (quien en 1886 ya sugirió que los circuitos eléctricos podrían usarse para procesar operaciones lógicas) y Whitehead y Russell (1910–1913, Principia Mathematica) para encontrar un tratamiento más fructífero.

3.2 Códigos óptimos

El hecho de que las frecuencias de las letras varían en un idioma era conocido desde la invención de la impresión de libros. Las impresoras necesitaban muchas más "e" y "t" s que "x" o "q" para escribir un texto en inglés. Este conocimiento se utilizó ampliamente para decodificar cifras desde el siglo XVII (Kahn 1967; Singh 1999). En 1844, un asistente de Samuel Morse, Alfred Vail, determinó la frecuencia de las letras utilizadas en un periódico local en Morristown, Nueva Jersey, y las utilizó para optimizar el código Morse. Así, el núcleo de la teoría de los códigos óptimos ya estaba establecido mucho antes de que Shannon desarrollara su base matemática (Shannon, 1948; Shannon y Weaver, 1949). Históricamente importantes pero filosóficamente menos relevantes son los esfuerzos de Charles Babbage para construir máquinas informáticas (Motor de diferencia en 1821,y el motor analítico 1834–1871) y el intento de Ada Lovelace (1815–1852) de diseñar lo que se considera el primer lenguaje de programación para el motor analítico.

3.3 números

La forma más sencilla de representar números es a través de un sistema unario. Aquí la longitud de la representación de un número es igual al tamaño del número en sí, es decir, el número "diez" se representa como "". El sistema clásico de números romanos es una mejora ya que contiene diferentes símbolos para diferentes órdenes de magnitud (uno = I, diez = X, cien = C, mil = M). Este sistema tiene enormes inconvenientes ya que en principio se necesita una cantidad infinita de símbolos para codificar los números naturales y debido a esto las mismas operaciones matemáticas (suma, multiplicación, etc.) toman diferentes formas en diferentes órdenes de magnitud. Alrededor de 500 CE, el número cero fue inventado en la India. Usando cero como marcador de posición, podemos codificar una infinidad de números con un conjunto finito de símbolos (uno = I, diez = 10, cien = 100, mil = 1000, etc.). Desde una perspectiva moderna, es posible un número infinito de sistemas de posición siempre que tengamos 0 como marcador de posición y un número finito de otros símbolos. Nuestro sistema normal de números decimales tiene diez dígitos "0, 1, 2, 3, 4, 5, 6, 7, 8, 9" y representa el número doscientos cincuenta y cinco como "255". En un sistema de números binarios solo tenemos los símbolos "0" y "1". Aquí doscientos cincuenta y cinco se representa como "11111111". En un sistema hexadecimal con 16 símbolos (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f) el mismo número se puede escribir como "ff". Tenga en cuenta que la longitud de estas representaciones difiere considerablemente. Utilizando esta representación, las operaciones matemáticas pueden estandarizarse independientemente del orden de magnitud de los números con los que estamos tratando, es decir, la posibilidad de un tratamiento algorítmico uniforme de las funciones matemáticas (además,resta, multiplicación y división, etc.) se asocia con dicho sistema de posición.

El concepto de un sistema de números posicionales fue traído a Europa por el matemático persa al-Khwarizmi (ca. 780-ca. 850 CE). Su trabajo principal sobre números (ca. 820 CE) fue traducido al latín como Liber Algebrae et Almucabola en el siglo XII, lo que nos dio, entre otras cosas, el término "álgebra". Nuestra palabra "algoritmo" se deriva de Algoritmi, la forma latina de su nombre. Los sistemas de números posicionales simplificaron los cálculos comerciales y científicos.

En 1544, Michael Stifel introdujo el concepto del exponente de un número en Arithmetica integra (1544). Por lo tanto, 8 puede escribirse como (2 ^ 3) y 25 como (5 ^ 2). La noción de un exponente sugiere inmediatamente la noción de un logaritmo como su función inversa: (log_b b ^ a) = a). Stifel comparó la secuencia aritmética:

[-3, -2, -1, 0, 1, 2, 3)

en el que el término 1 tiene una diferencia de 1 con la secuencia geométrica:

) frac {1} {8}, / frac {1} {4}, / frac {1} {2}, 1, 2, 4, 8)

en el que los términos tienen una relación de 2. La notación de exponente le permitió reescribir los valores de la segunda tabla como:

[2 ^ {- 3}, 2 ^ {- 2}, 2 ^ {- 1}, 2 ^ 0, 2 ^ 1, 2 ^ 2, 2 ^ 3)

que combina las dos tablas. Podría decirse que esta fue la primera tabla logarítmica. John Napier (1550-1617) desarrolla una teoría más definitiva y práctica de los logaritmos en su trabajo principal (Napier 1614). Él acuñó el término logaritmo (logos + aritmética: relación de números). Como queda claro por la coincidencia entre progresiones aritméticas y geométricas, los logaritmos reducen los productos a sumas:

) log_b (xy) = / log_b (x) + / log_b (y))

También reducen las divisiones a diferencias:

) log_b (x / y) = / log_b (x) - / log_b (y))

y poderes a los productos:

) log_b (x ^ p) = p / log_b (x))

Después de la publicación de las tablas logarítmicas por Briggs (1624), esta nueva técnica de facilitar cálculos complejos ganó rápidamente popularidad.

3.4 Física

Galileo (1623) ya había sugerido que el análisis de fenómenos como el calor y la presión podría reducirse al estudio de los movimientos de partículas elementales. Dentro de la metodología empírica, esto podría concebirse como la cuestión de cómo la experiencia sensorial de la calidad secundaria del calor de un objeto o un gas podría reducirse a movimientos de partículas. Bernoulli (Hydrodynamica publicado en 1738) fue el primero en desarrollar una teoría cinética de los gases en la que los fenómenos observables macroscópicamente se describen en términos de microestados de sistemas de partículas que obedecen las leyes de la mecánica newtoniana, pero fue un esfuerzo bastante intelectual para llegar a con un adecuado tratamiento matemático. Clausius (1850) dio un paso concluyente cuando introdujo la noción del camino libre medio de una partícula entre dos colisiones. Esto abrió el camino para un tratamiento estadístico por Maxwell, quien formuló su distribución en 1857, que fue la primera ley estadística en física. Boltzmann desarrolló la fórmula definitiva que unía todas las nociones (y que está grabada en su lápida, aunque la fórmula real se debe a Planck):

[S = k / log W)

Describe la entropía S de un sistema en términos del logaritmo del número de posibles microestados W, consistente con los estados macroscópicos observables del sistema, donde k es la constante de Boltzmann conocida. En toda su simplicidad, el valor de esta fórmula para la ciencia moderna difícilmente puede sobreestimarse. La expresión "(log W)" puede, desde la perspectiva de la teoría de la información, interpretarse de varias maneras:

  • Como la cantidad de entropía en el sistema.
  • Como la longitud del número necesario para contar todos los microestados posibles consistentes con observaciones macroscópicas.
  • Como la longitud de un índice óptimo, necesitamos identificar el microestado actual desconocido específico del sistema, es decir, es una medida de nuestra "falta de información".
  • Como medida de la probabilidad de cualquier microestado específico típico del sistema consistente con observaciones macroscópicas.

Por lo tanto, conecta la naturaleza aditiva del logaritmo con las amplias cualidades de entropía, probabilidad, tipicidad e información y es un paso fundamental en el uso de las matemáticas para analizar la naturaleza. Más tarde Gibbs (1906) refinó la fórmula:

[S = - / sum_i p_i / ln p_i,)

donde (p_i) es la probabilidad de que el sistema esté en el microestado (i ^ { textrm {th}}). Esta fórmula fue adoptada por Shannon (1948; Shannon y Weaver, 1949) para caracterizar la entropía de comunicación de un sistema de mensajes. Aunque existe una estrecha conexión entre el tratamiento matemático de la entropía y la información, la interpretación exacta de este hecho ha sido motivo de controversia desde entonces (Harremoës y Topsøe 2008; Bais y Farmer 2008).

4. Desarrollos en filosofía de la información

Las teorías modernas de la información surgieron a mediados del siglo XX en un clima intelectual específico en el que la distancia entre las ciencias y las partes de la filosofía académica era bastante grande. Algunos filósofos mostraron una actitud anti-científica específica: Heidegger, “Die Wissenschaft denkt nicht. Por otro lado, los filósofos de Wiener Kreis desacreditaron abiertamente la filosofía tradicional por tratar problemas ilusorios (Carnap, 1928). El programa de investigación del positivismo lógico fue una reconstrucción rigurosa de la filosofía basada en una combinación de empirismo y los recientes avances en lógica. Quizás es debido a este clima intelectual que los primeros desarrollos importantes en la teoría de la información tuvieron lugar de forma aislada de la reflexión filosófica convencional. Un hito es el trabajo de Dretske a principios de los años ochenta (Dretske 1981). Desde el cambio de siglo, el interés por la filosofía de la información ha aumentado considerablemente, en gran medida bajo la influencia del trabajo de Luciano Floridi en la información semántica. También el rápido desarrollo teórico de la computación cuántica y la noción asociada de información cuántica han tenido repercusiones en la reflexión filosófica.

4.1 Popper: información como grado de falsabilidad

El programa de investigación del positivismo lógico de los Wiener Kreis en la primera mitad del siglo XX revitalizó el antiguo proyecto de empirismo. Su ambición era reconstruir el conocimiento científico sobre la base de observaciones directas y la relación lógica entre declaraciones sobre esas observaciones. La vieja crítica de Kant al empirismo fue revitalizada por Quine (1951). En el marco del positivismo lógico, la inducción no era válida y la causalidad nunca podría establecerse objetivamente. En su Logik der Forschung (1934), Popper formula su conocido criterio de demarcación y lo posiciona explícitamente como una solución al problema de inducción de Hume (Popper 1934 [1977: 42]). Las teorías científicas formuladas como leyes generales nunca pueden verificarse definitivamente, pero pueden ser falsificadas por una sola observación. Esto implica que una teoría es "más" científica si es más rica y ofrece más oportunidades para ser falsificada:

Por lo tanto, se puede decir que la cantidad de información empírica transmitida por una teoría, o su contenido empírico, aumenta con su grado de falsabilidad. (Popper 1934 [1977: 113], énfasis en el original)

Esta cita, en el contexto del programa de investigación de Popper, muestra que la ambición de medir la cantidad de información empírica en la teoría científica concebida como un conjunto de declaraciones lógicas ya se reconoció como un problema filosófico más de una década antes de que Shannon formulara su teoría de la información.. Popper es consciente del hecho de que el contenido empírico de una teoría está relacionado con su falsabilidad y que esto a su vez tiene una relación con la probabilidad de los enunciados en la teoría. Las teorías con más información empírica son menos probables. Popper distingue la probabilidad lógica de la probabilidad numérica ("que se emplea en la teoría de los juegos y el azar, y en las estadísticas"; Popper 1934 [1977: 119]). En un pasaje que es programático para el desarrollo posterior del concepto de información, define la noción de probabilidad lógica:

La probabilidad lógica de una declaración es complementaria a su falsabilidad: aumenta con la disminución del grado de falsabilidad. La probabilidad lógica 1 corresponde al grado 0 de falsabilidad y viceversa. (Popper 1934 [1977: 119], énfasis en el original)

Es posible interpretar la probabilidad numérica como aplicada a una subsecuencia (seleccionada de la relación de probabilidad lógica) para la cual se puede definir un sistema de medición, en base a estimaciones de frecuencia. (Popper 1934 [1977: 119], énfasis en el original)

Popper nunca logró formular una buena teoría formal para medir esta cantidad de información, aunque en escritos posteriores sugiere que la teoría de la información de Shannon podría ser útil (Popper 1934 [1977], 404 [Apéndice IX, de 1954]). Estos problemas se desarrollaron más tarde en filosofía de la ciencia. La teoría de la conformación estudia la teoría de la inducción y la forma en que la evidencia "respalda" cierta teoría (Huber 2007 [OIR]). Aunque el trabajo de Carnap motivó importantes desarrollos tanto en la filosofía de la ciencia como en la filosofía de la información, la conexión entre las dos disciplinas parece haberse perdido. No se menciona la teoría de la información ni ninguno de los trabajos más fundamentales en filosofía de la información en Kuipers (2007a), pero las dos disciplinas ciertamente tienen dominios superpuestos. (Ver, por ejemplo,la discusión de la llamada Paradoja de los Cuervos Negros por Kuipers (2007b) y Rathmanner & Hutter (2011).)

4.2 Shannon: información definida en términos de probabilidad

En dos documentos históricos, Shannon (1948; Shannon y Weaver, 1949) caracterizaron la entropía de comunicación de un sistema de mensajes A:

[H (P) = - / sum_ {i / in A} p_i / log_2 p_i)

Aquí (p_i) es la probabilidad del mensaje i en A. Esta es exactamente la fórmula para la entropía de Gibb en física. El uso de logaritmos de base 2 asegura que la longitud del código se mida en bits (dígitos binarios). Se ve fácilmente que la entropía de comunicación de un sistema es máxima cuando todos los mensajes tienen la misma probabilidad y, por lo tanto, son típicos.

La cantidad de información I en un mensaje individual x viene dada por:

[I (x) = - / log p_x)

Esta fórmula, que puede interpretarse como la inversa de la entropía de Boltzmann, cubre varias de nuestras intuiciones básicas sobre la información:

  • Un mensaje x tiene una cierta probabilidad (p_x) entre 0 y 1 de ocurrir.
  • Si (p_x = 1) entonces (I (x) = 0). Si estamos seguros de recibir un mensaje, literalmente no contiene "noticias" en todo. Cuanto menor es la probabilidad del mensaje, más información contiene. Un mensaje como "El sol saldrá mañana" parece contener menos información que el mensaje "Jesús fue César" exactamente porque es mucho menos probable que la segunda declaración sea defendida por nadie (aunque se puede encontrar en la web).
  • Si dos mensajes x e y no están relacionados, entonces (I (x / textrm {and} y) = I (x) + I (y)). La información es extensa. La cantidad de información en dos mensajes combinados es igual a la suma de la cantidad de información en los mensajes individuales.

La información como el registro negativo de la probabilidad es la única función matemática que cumple exactamente estas restricciones (Cover y Thomas 2006). Shannon ofrece un marco teórico en el que las cadenas binarias pueden interpretarse como palabras en un lenguaje (de programación) que contiene una cierta cantidad de información (ver 3.1 Idiomas). La expresión (- / log p_x) da exactamente la longitud de un código óptimo para el mensaje x y, como tal, formaliza la vieja intuición de que los códigos son más eficientes cuando las letras frecuentes tienen representaciones más cortas (ver 3.2 Códigos óptimos). Los logaritmos como una reducción de la multiplicación a la suma (ver 3.3 Números) son una representación natural de las propiedades extensivas de los sistemas y, como tales, ya habían sido utilizados por los físicos en el siglo XIX (ver 3.4 Física).

Un aspecto de la información que la definición de Shannon no cubre explícitamente es el contenido real de los mensajes interpretados como proposiciones. Entonces, la declaración “Jesús fue César” y “La luna está hecha de queso verde” puede contener la misma cantidad de información, mientras que su significado es totalmente diferente. Gran parte del esfuerzo en filosofía de la información se ha dirigido a la formulación de más teorías semánticas de la información (Bar-Hillel y Carnap 1953; Floridi 2002, 2003, 2011). Aunque las propuestas de Shannon al principio fueron ignoradas casi por completo por los filósofos, en el pasado se hizo evidente que su impacto en los asuntos filosóficos es grande. Dretske (1981) fue uno de los primeros en analizar las implicaciones filosóficas de la teoría de Shannon,pero la relación exacta entre varios sistemas de lógica y teoría de la información aún no está clara (ver 6.6 Información lógica y semántica).

4.3 Solomonoff, Kolmogorov, Chaitin: información como la duración de un programa

Carnap (1945, 1950) abordó este problema de relacionar un conjunto de declaraciones con un conjunto de observaciones y definir la probabilidad correspondiente. Distinguió dos formas de probabilidad: Probabilidad (_ 1) o “grado de confirmación” (P_1 (h; e)) es una relación lógica entre dos oraciones, una hipótesis h y una oración e que informan una serie de observaciones. Las declaraciones de este tipo son analíticas o contradictorias. La segunda forma, Probabilidad (_ 2) o "frecuencia relativa", es el concepto estadístico. En palabras de su alumno Solomonoff (1997):

El modelo de probabilidad de Carnap comenzó con una larga secuencia de símbolos que era una descripción del universo entero. A través de su propio análisis lingüístico formal, fue capaz de asignar probabilidades a priori a cualquier posible cadena de símbolos que pudieran representar el universo.

El método para asignar probabilidades que Carnap utilizó, no era universal y dependía en gran medida de los sistemas de código utilizados. Una teoría general de inducción usando la regla de Bayes solo puede desarrollarse cuando podemos asignar una probabilidad universal a "cualquier posible cadena" de símbolos. En un artículo publicado en 1960, Solomonoff (1960, 1964a, b) fue el primero en esbozar un esquema de una solución para este problema. Formuló la noción de lo que ahora se llama distribución de probabilidad universal: considere el conjunto de todas las cadenas finitas posibles como programas para una máquina Turing universal U y defina la probabilidad de una cadena x de símbolos en términos de la longitud del programa más corto p que emite x en U.

Kolmogorov (1965) y Chaitin (1969) inventaron esta noción de la teoría de la información algorítmica de forma independiente, algo más tarde por separado. Levin (1974) desarrolló una expresión matemática de la probabilidad universal a priori como una semimensión inferior semicomputable M universal (es decir, máxima), y demostró que el logaritmo negativo de (M (x)) coincide con la complejidad Kolmogorov de x hasta un término logarítmico aditivo. La definición real de la medida de complejidad es:

Complejidad de Kolmogorov La complejidad algorítmica de una cadena x es la longitud (cal {l} (p)) del programa más pequeño p que produce x cuando se ejecuta en una máquina universal de Turing U, señalada como (U (p) = x):

[K (x): = / min_p {l (p), U (p) = x })

La teoría de la información algorítmica (también conocida como teoría de la complejidad de Kolmogorov) se ha convertido en un rico campo de investigación con una amplia gama de dominios de aplicaciones, muchas de las cuales son filosóficamente relevantes (Li y Vitányi 1997):

  • Nos proporciona una teoría general de la inducción. El uso de la regla de Bayes permite una reformulación moderna de la navaja de afeitar de Ockham en términos de Longitud mínima de descripción (Rissanen 1978, 1989; Barron, Rissanen y Yu 1998; Grünwald 2007) y longitud mínima del mensaje (Wallace 2005). Tenga en cuenta que Domingos (1998) ha argumentado en contra de la validez general de estos principios.
  • Nos permite formular probabilidades y contenido de información para objetos individuales. Incluso los números naturales individuales.
  • Sienta las bases para una teoría del aprendizaje como compresión de datos (Adriaans 2007).
  • Da una definición de aleatoriedad de una cadena en términos de incompresibilidad. Esto en sí mismo ha llevado a un dominio completamente nuevo de investigación (Niess 2009; Downey & Hirschfeld 2010).
  • Nos permite formular una medida objetiva a priori del valor predictivo de una teoría en términos de su deficiencia de aleatoriedad: es decir, la mejor teoría es la teoría más corta que hace que los datos parezcan aleatorios condicionales a la teoría. (Vereshchagin y Vitányi 2004).

También hay inconvenientes:

  • La complejidad algorítmica es indiscutible, aunque en muchos casos prácticos puede ser aproximada y los programas de compresión comercial en algunos casos se acercan al óptimo teórico (Cilibrasi y Vitányi 2005).
  • La complejidad algorítmica es una medida asintótica (es decir, proporciona un valor correcto hasta una constante). En algunos casos, el valor de esta constante es prohibitivo para su uso en fines prácticos.
  • Aunque la teoría más corta es siempre la mejor en términos de deficiencia de aleatoriedad, compresión incremental de alt="sep man icon" /> Cómo citar esta entrada.

    icono de hombre sep
    icono de hombre sep

    Obtenga una vista previa de la versión PDF de esta entrada en Friends of the SEP Society.

    icono inpho
    icono inpho

    Busque este tema de entrada en el Proyecto de ontología de filosofía de Internet (InPhO).

    icono de papeles de phil
    icono de papeles de phil

    Bibliografía mejorada para esta entrada en PhilPapers, con enlaces a su base de datos.

    Otros recursos de internet

    • Aaronson, Scott, 2006, Razones para creer, publicación de blog optimizada para Shtetl, 4 de septiembre de 2006.
    • Adriaans, Pieter W., 2016, "Una teoría general de la información y la computación", manuscrito no publicado, noviembre de 2016, arXiv: 1611.07829.
    • Bekenstein, Jacob D., 1994, "¿Entendemos la entropía del agujero negro?", Charla plenaria en la Séptima reunión de Marcel Grossman en la Universidad de Stanford., ArXiv: gr-qc / 9409015.
    • Churchill, Alex, 2012, Magic: the Gathering is Turing Complete.
    • Cook, Stephen, 2000, The P versus NP Problem, Clay Mathematical Institute; El problema del Premio del Milenio.
    • Huber, Franz, 2007, Confirmación e Inducción, entrada en la Enciclopedia de Filosofía de Internet.
    • Sajjad, H. Rizvi, 2006, "Avicena / Ibn Sina", entrada en la Enciclopedia de Filosofía de Internet.
    • Goodman, L. y Weisstein, EW, 2019, "La hipótesis de Riemann", de MathWorld - Un recurso web de Wolfram.
    • Computabilidad: ¿Qué significaría refutar la tesis de Church-Turing ?, discusión sobre StackExchange teórico de informática.
    • Prime Number Theorem, Encyclopedia Britannica, 20 de diciembre de 2010.
    • Generador de números aleatorios de hardware, entrada de Wikipedia, noviembre de 2018.

Recomendado: