ARGENTINA
CAPITAL FEDERAL
HOY-ES
OtrosBlogs -
MisPapers -
MisNotas -
Vínculos -

viernes, diciembre 13, 2024

Fronteras de la Praxeología

-note in progress-

Se dice que algo se encuentra en la frontera cuando pertenece al interreino entre dos mundos. Cualquier pasito hacia uno de ellos te saca del otro. Pues eso mismo ocurre con la praxeología; sus fronteras están bien definidas en el sentido en que sus enunciados y métodos no son compartidos por varias ciencias. La construcción de la praxeología tiene método propio. La única intersección vive en el reino de la lógica.

La praxeología es una ciencia estrictamente lógica. Aunque ninguna ciencia puede ser ilógica, el rasgo lógico de la praxeología se destaca porque la totalidad de sus enunciados se derivan como consecuencias lógicas de hipótesis precedentes. La praxeología tiene una primera hipótesis, que es el axioma de la acción: "el humano actúa." Tal hipótesis es sintética a priori, por lo que es una verdad universal. El análisis y la síntesis aplicada sobre este axioma sólo genera verdades universales para la praxeología. Pero, qué es la praxeología.?

Ludwig von Mises definió a la praxeología como la teoría de la acción humana es decir la ciencia que estudia los actos humanos. El mismo Mises define al acto humano como la conducta intencional de la persona. Todo movimiento humano sin propósito, sin intención, no es un acto humano sino la mera respuesta instintiva o refleja inducida por músculos y nervios del cuerpo en el mismo sentido a cómo reacciona una sustancia ante un reactivo o a cómo se comporta una bestia ante un evento externo de la naturaleza.

No hay acto humano sin intención, sin propósito. Esto le imprime a la praxeología un carácter especial, porque la intención, el propósito, una construcción imaginaria de la mente humana, no aparecen en ningún estudio de la naturaleza. Por esto, la praxeología no puede ser una ciencia natural; los actos humanos no pueden estudiarse con sus mismos métodos.

La praxeología tampoco es una ciencia exacta ni estadística. La intención, el propósito, nunca revela sus determinantes concretos o medibles; sólo sabemos que los eventos internos de la mente le transmiten estructura lógica a todo acto humano. No se sabe en rigor de qué manera se combinan la razón, la emoción y la voluntad al determinar dicha acción. Así, las causas últimas naturales en este reino son no observables y no medibles, por lo que mucho menos son modelables o muestreables.

La modelación matemático-estadística, en cualquier rama de la ciencia, exige relaciones fijas en la estructura y la dinámica del fenómeno que se estudia, cosa que jamás ocurre en el mundo de la mente. La praxeología estudia aquella estructura lógica de la mente que se vincula y determina el acto humano. La praxeología es una ciencia lógica que empieza en la intención del acto y termina en la intrincada red de consecuencias necesarias que ello implica.

Inobservancia e inmedibilidad de causas últimas levantan una barrera insuperable al empleo de la matemática, de la estadística y del experimento como instrumentos para elaborar teoría en la acción humana. Por ello la praxeología no es una ciencia causalística tradicional sino teleológica, con la intención, el propósito, como la causa última que mueve al humano. El humano actúa persiguiendo metas, objetivos, siendo este el único elemento relevante en el estudio formal de la acción humana. La praxeología no aborda el estudio de los eventos neurológicos, fisiológicos, físicos o naturales que ocurren en la mente humana mientras el humano actúa.

La praxeología es una ciencia social. Por ello se debe entender muy bien el significado de la palabra sociedad. La sociedad no es un ente, no es algo que emerge en la naturaleza, algo que adquiere autonomía propia mediante nuevas características naturales que derivan de su consolidación, como sería por ejemplo las nuevas propiedades químicas que surgen en las moléculas que se forman por la union electromagnética de sus componentes. Mises sostiene que la sociedad es sólo cooperación, es acción humana concertada.

La sociedad es sólo cooperación, son actos humanos concertados entre las personas que concuerdan hacerlo. Cuando esa concordancia se da en la producción e intercambio de bienes, tangibles o no tangibles, con el propósito de aliviar insatisfacciones más sentidas, entramos en el terreno de la economía cuyo objeto de estudio es el proceso de mercado.

Dado que la praxeología es una ciencia lógica, se puede pensar como que está muy relacionada con la matemática. Pero no es así. La economía, por ejemplo, la rama desarrollada de la praxeología, sólo utiliza aritmética elemental (adición, sustracción, multiplicación y división) para hacer cálculo económico. No existe ningún otro punto de contacto. Pero la praxeología, como cualquier otra ciencia, no puede contradecir a las matemáticas. Es aquí donde se vuelve relevante la frontera. Cuando dos ramas de una ciencia se tocan es porque tienen zonas de frontera.

La frontera puede ser difusa, pero existe. Por ejemplo, considere el caso de un mundo con sólo dos personas. Aquí, la matemática nos dice que hay un umbral de relaciones posibles de cooperación que estas personas pueden entablar. Cualquiera arreglo de cooperación que ellas elijan, estará limitado por este umbral: el arreglo será uno de 16 arreglos posibles, 24=16. Uno se pregunta de dónde sale ese valor.? La matemática nos dice que un conjunto A de dos elementos tiene un cardinal finito de |A|=2, y en este conjunto se pueden definir sólo 2|A|2=16 relaciones posibles. Un esquema puede ayudar a entender esto:
En este esquema, la primera1 opción es sólo recolección de modo que no hay división del trabajo, en la segunda la persona 1 divide sus tareas y la 2 no, en la tercera la persona 2 divide sus tareas y la 1 no, en la cuarta la persona 1 divide tareas e intercambia con la persona 2 que no divide tareas, en la quinta la persona 2 divide tareas e intercambia con la 1 que no divide tareas, en la sexta ambas dividen tareas pero no intercambian, y así sucesivamente hasta llegar a la opción 16 en la cual ambas producen e intercambian y usan lo que producen.

Obviamente, la cuenta para llegar a 16 no tiene nada que ver con la praxeología. Ninguna persona necesita ser conscientes de este límite, ni mucho menos tal límite escribe leyes praxeológicas que rigen la elección. La opción de cooperación que las personas eligen no depende de la cuenta matemática sino de cuentas praxeológicas subjetivas que hacen en su permanente desafío por aliviar insatisfacciones. Una ley praxeológica dice que siempre es mejor para ambas personas acordar, dividir el trabajo e intercambiar que optar por la situación de autarquía. La matemática nos dice que sólo se podrá elegir una opción de las 16 posibles y la conducta del humano, por más subjetiva que sea, no podrá violar esta regla.

La praxeología no permite predecir qué opción elegirán las personas, pero la ley de división del trabajo nos dice que a las personas les conviene dividir el trajo y especializarse en aquello en lo que ellas son mas productivas y luego intercambiar para así aliviar un poco más sus estados de insatisfacción. Obviamente, las personas tampoco suelen conocer los detalles de esta regla aunque ella opera inexorablemente porque forma parte de la estructura lógica de la mente humana; los humanos reconocen esto a tal punto que las personas toman conciencia de que tendrán que ajustar su conducta social a la misma si pretenden mejorar su condición miserable que les impone la naturaleza.

La regla matemática puede ayudar a dimensionar el potencial de riqueza oculta en la cooperación social. Por ejemplo, si el mundo tiene 3 personas en lugar de 2, el total de relaciones posibles asciende a 29=512. Y si se tienen 10 personas, ese total de relaciones posibles asciende a 2100, un número de orden 1030 o sea un 1 seguido de 30 ceros. Es decir que la vida social del ser humano dispone de una abrumadora explosión exponencial para cooperar por el sólo hecho de acordar, dividir sus tareas y comerciar entre ellos. Esto puede dar un indicio del éxito de la civilización humana cuando se generan las condiciones para una sana y espontánea concertación de los actos humanos: las opciones son inagotables.

El hecho tan común de hoy en día de comprar un teléfono celular da cuenta de la importancia de semejante abrumadora cantidad de opciones. De repente, la persona que compró el celular se relaciona implícitamente con millones y millones de otras personas: los mineros que obtienen los minerales, los teóricos que generan conocimientos, los que producen componentes, los ensambladores, los transportistas, los comerciantes, los que permiten obtener ingresos para gastar, los que facilitan liquidez, los que facilitan el acceso minorista y finalmente los vendedores del celular.

Tal posibilidad no se habría expresado sin esa manifestación que vive entre billones de billones de billones de billones de billones de relaciones posibles a ocurrir. Cualquier obstáculo, cualquier impedimento, sobre el dominio de las relaciones entre las personas, cualquier coerción que proviene del gobierno o de quién sea, pudo significar la diferencia entre comprar y no comprar el aparato, entre realizar o no esa transacción, entre aliviar o no las insatisfacciones de millones de involucrados. Pero el hecho de existir tantas posibilidades no es lo que aumenta las chances de una mejor manifestación. Aquí aparece la relevancia del mercado.

El hecho de tener tantas posibilidades no es la fuente de riqueza en sí. Lo que verdaderamente importa es la acción humana que las aprovechan. No es lo mismo cooperar bajo el yugo violento de un dictador que hacerlo bajo los cánones de la libertad y la no violencia. En ambos casos las posibilidades son las mismas pero lo que socialmente se expresa suelen ser opciones completamente distintas. De nada serviría que todos produzcan e intercambien si esa es una opción coercitiva, porque esa no será lo mejor para las personas involucradas. La coerción siempre te aleja de lo mejor. Lo importante de la cooperación es que ella habilita posibilidades desde donde se puede elegir libremente, lo cual no quiere decir que esas nuevas posibilidades sean mejores.

El único medio que garantiza la manifestación del potencial de riqueza en la vida social del hombre es el mercado. El mercado es el mejor proceso de concertación inventado por los humanos. Es lo que permite que cualquier relación se exprese. La estructura lógica de la mente hace que cada humano elija su mejor opción de cooperación en su desafío por satisfacción. De todas las configuraciones de cooperación posibles, el mercado permite a los hombres elegir espontáneamente la mejor de ellas. No es que en el mercado surgen funcionales optimizantes que engullen y eligen funciones sociales enteras, sino que mientras cada persona elige lo mejor para ella también elige, en el mismo acto, lo mejor para los demás. El proceso de mercado hace ese milagro, posible.


(1)Notar que hay cuatro opciones de autarquía (1, 2, 3 y 6), pero la primera opción también contempla la posibilidad en la cual se intercambia lo que se recolecta, lo cual se asemeja a una división primitiva de tareas que a los efectos prácticos se puede considerar como una situación de autarquía.
Read All... Leer Todo...

domingo, diciembre 08, 2024

La Potencia de Bitcoin

coin, hash, p2p, nodos, blockchain, timestamp, pow, nonce, cpu

Bitcoin alcanzó durante el día 04/12/2024, los 100 mil dólares de valor por primera vez en su historia. Es un hito que de alguna manera expresa el poder que tiene el mercado para capturar y preservar el valor de una moneda. Bitcoin es una moneda! La sociedad la eligió en el mercado. Así como el mercado es el mejor invento humano para abordar los procesos sociales al concertar actos económicos, la moneda es el más ingenioso, más importante y más productivo invento para hacer funcionar a pleno el proceso de mercado. Los gobiernos, invariablemente expropian y saquean los poderes del mercado pero, en el caso de las criptomonedas, es el mercado quien ganó la batalla de poder: Bitcoin da cuenta de que es posible hacer inevitable la ausencia del estado en ciertos poderes sociales. Veamos algunos detalles de Bitcoin que ayudan en esta batalla.

Imagine que en lugar de tener una base de datos en una red de pagos digitales en la forma de registros contables convencionales, se tiene una base de datos en una red de pagos electrónicos en la forma de cadena de bloques. Ambas bases de datos son distintas pero contienen la misma información contable: el intercambio de propiedad en un sistema monetario. Los ítems relevantes en estas bases de datos son las transacciones o intercambios de un bien monetario. Qué características tiene cada sistema de base de datos?.

En la base de datos digital tradicional, se define la moneda digital como una colección de registros contables de intercambios de propiedad, registros contables de pagos. La información contable (centralizada en los bancos) registrada en las cuentas de los usuarios, se va actualizando según un sistema de registros tradicionales (tipo filas y columnas) a medida que los usuarios realizan transacciones --de transferencias de propiedad-- las que son enviadas al servidor del banco para ser certificadas y aprobadas por la autoridad bancaria. Esta actualización es de suma cero estricta --SzS-- en el sentido en que la cantidad de dinero digital que sale de una cuenta (un pago) va a parar a otras cuentas no más de una única vez; es decir que, seleccionada una cantidad de moneda digital, no es posible usar esa cantidad para hacer pagos duplicados, por lo que no hay doble pago.

Esto es así porque a la moneda digital la acuña el banco. El usuario envía sólo la orden de transacción, de transferencia de propiedad, pero es el banco el que acuña el registro contable y confirma, o no, la trasferencia de propiedad de la moneda. Así, este modelo de control implementado en el servidor del banco, evita el doble pago en el sentido en que no es posible hacer el cambio correspondiente de un mismo registro más de una vez. Lo que llega al servidor es una orden de cambio de registro pero el cambio no se hace sin chequear si hay fondos disponibles. La autoridad es consciente del orden de llegada de todas las transacciones porque las ve a todas ellas; por esto puede identificar peticiones duplicadas y autorizar sólo una de ellas.

En la otra base de datos, Satoshi define la electronic coin como una cadena de firmas digitales. Aquí también se cumple la suma cero, pues contiene la misma información de pagos, pero se administra de manera distinta; el chequeo SzS se hace usando un modelo que es independiente de una autoridad que autoriza pagos. Como se ve en el esquema de abajo, cada dueño transfiere (la propiedad de) la coin al próximo dueño firmando digitalmente un hash que contiene el hash de la transacción previa y la cuenta pública del próximo dueño; luego agrega este hash al final de la coin. Por esto, un usuario del sistema puede chequear las firmas para verificar la cadena de propiedad.

TXS: Esquema tomado del paper de Satoshi Nakamoto,
Bitcoin: A Peer-to-Peer Electronic Cash System
El problema de este esquema es que el usuario no puede verificar si se hizo un doble pago. Satoshi sostiene que una solución posible a este problema es introducir una autoridad central confiable, un acuñador, que chequee el doble pago en cada transacción. Después de cada transacción, la coin se retorna al acuñador quien emite una nueva coin que envía al nuevo dueño, y sólo la coin emitida por el acuñador será considerada libre de doble pago; el acuñador ve todas las transacciones, por lo que podrá detectar el doble pago. El problema de este modelo con autoridad es que el destino de todo el sistema monetario depende de la compañía encargada del acuñaje. Esto último sería equivalente a transferir la emisión de la coin a una autoridad, lo cual nos deja en el modelo basado en la confianza discutido para el caso de la moneda digital centralizada.

En un esquema descentralizado, en una red p2p, es en la instancia de transacción donde se define la electronic coin, es ahí donde se autoriza el evento de transferencia de propiedad. En ninguna otra instancia ocurre este evento. Esta transacción es empaquetada en un hash y enviada al nuevo dueño. Será tarea de los nodos de la red verificar si las transacciones son genuinas y generar las condiciones para evitar el doble pago. En estos servidores todas las transacciones se empaquetan en un bloque que se ensambla a una cadena de bloques técnicamente llamada blockchain.

En una blockchain no se van actualizando los campos de las cuentas como si fueran registros contables digitales, sino que son los dueños de la coin quienes crean nuevos hash para cada transacción y colocan el hash al final de una cadena de hash de firmas digitales. Las transacciones son verificadas, empaquetadas y ensambladas a la blockchain, a intervalos fijos de tiempo, por servidores independientes, después de realizar un cierto trabajo para resolver un problema matemático complejo.

Como se dijo, el nuevo problema que surge en este modelo sin autoridad central es que el usuario no puede verificar si el dueño hizo otros pagos previos con la misma coin. Podría haber hecho varios pagos! Para este propósito la transacción más antigua es la que cuenta; las posteriores se descartan. Para asegurar la ausencia de una transacción alcanza con tener conciencia (o coincidencia) sobre todas las transacciones que ocurren en la red.

En una red p2p, esto se logra comunicando públicamente las transacciones y acordando un sistema sobre una única y simple historia del orden de llegada de dichas transacciones. Los beneficiarios necesitan una prueba de que al momento de cada transacción, la mayoría de los nodos están de acuerdo sobre que ella fue la primera transacción recibida; es decir, de todos los (doble) pagos que un dueño podría ordenar con la misma coin, el pago más antiguo es el que vale. De este modo quien recibe un pago se asegura que no es un doble pago.

La solución que se propone comienza con un timestamp server. El timestamp server le pone una marca de tiempo al bloque de hash de transacciones, lo hashea y lo publica ampliamente en la red. La marca de tiempo proporciona una prueba de que los datos (las transacciones) existieron al momento de colocarse dentro del hash del bloque; además, dentro de ese hash no hay ningún doble pago. El hash del timestamp contiene el hash del timestamp previo formando así una cadena de hash de timestamp que refuerza los timestamp previos.

HASH: Esquema tomado del paper de Satoshi Nakamoto,
Bitcoin: A Peer-to-Peer Electronic Cash System
Para implementar el timestamp server sobre la base de una red p2p, se necesita implementar un sistema de prueba de trabajo pow que implica escanear un valor que cuando es hasheado con una función hash, este hash comienza con cierto números de dígitos binarios en cero. El trabajo requerido es exponencial con el números de ceros y puede ser fácilmente verificado mediante la función hash. El número de ceros determina la dificultad del trabajo a realizar. Para la red timestamp de Bitcoin, la pow se implementa incrementado el nonce en el bloque hasta que le da al has del bloque el número de ceros requeridos.

POW: Esquema tomado del paper de Satoshi Nakamoto,
Bitcoin: A Peer-to-Peer Electronic Cash System
Tal como se observa en la figura previa, la blockchain puede ser entendida como una base de datos de cadenas de transacciones hasheadas anidadas que están empaquetadas en bloques hasheados anidados que son ensamblados secuencialmente con una marca temporal y una prueba de trabajo que evita el doble pago y vuelve inmutables las transacciones. Una vez que se ha gastado un esfuerzo de cpu para satisfacer la pow, el bloque queda sellado y ensamblado en la blockchain y no puede ser modificado sin rehacer la pow. Si nuevos bloques son ensamblados después de él, el esfuerzo requerido para hacer cambios en el bloque incluye el esfuerzo de cpu demandado para rehacer todos los bloques posteriores. Esta última exigencia, es una estrategia muy ingeniosa para asegurar la inmutabilidad de los datos de la blockchain.

La pow implementada en la blockchain de Bitcoin también resuelve el problema de las mayorías en la toma de decisiones en redes descentralizadas p2p. Un esquema de consenso 1 ip 1 voto, puede ser fácilmente desvirtuado si un minero coloca a minar varios nodos con distinta ip. Con la regla de decisión 1 cpu 1 voto, la mayoría es determinada por la capacidad de cómputo; así se garantiza la inmutabilidad de la blockchain mientras el cpu de nodos honestos sobrepasa al cpu del atacante deshonesto.

La marca de tiempo y la prueba de trabajo impiden el doble pago y otorgan inmutabilidad a los datos. Si un usuario intenta realizar un doble pago enviando la misma transacción a dos destinos distintos, sólo se aprueba una de esas transacciones. Si un minero verifica ambas transacciones mientras arma su bloque, aprueba la primera transacción y descarta la segunda por falta de fondos. Mientras que si el bloque ensamblado sólo verificó una de las transacciones, entonces la otra pasa para el siguiente bloque en donde se descarta por falta de fondos en la cuenta origen. Así es como los nodos de una red p2p logran ver todas las transacciones.

Si varios nodos trabajan coordinadamente en una red p2p efectuando la misma tarea (ejecutada exactamente por el mismo software) para verificar transacciones a intervalos fijos, el primer nodo que logra completar la pow es el que ensambla el hash de su bloque en la cadena. Al ser ensamblado, el has queda agregado a la blockchain de modo que si algún minero malintencionado de la red quiere cambiar los registros de transacciones para hacer un doble pago, tendrá que gastar la misma cantidad de cómputo para desarmar el bloque y luego realizar otro trabajo para rearmar el bloque y todos los bloques posteriores que se agregaron a la cadena.

Una vez ensamblado un nuevo bloque, todos los demás mineros tendrán que verificar si las transacciones incorporadas en el bloque son genuinas. Si la mayoría de cpu lo ratifica, si la mayoría coopera en la red, entonces el bloque es confirmado y los mineros pasan a verificar transacciones del próximo bloque, con lo cual el posible fork o bifurcación de la cadena generada por el minero maligno queda sin efecto, porque hay una mayoría que continúa ensamblando bloques en la cadena principal y no en la cadena generada por el minero malicioso.

En resumen, para que la transferencia de propiedad funcione en una red p2p, se requiere que la red ensamble en una única cadena de bloques las transferencias de propiedad inicialmente autorizadas por los usuarios. Se necesita armar una base de datos de bloques y no una base tradicional de registros y campos fijos. La lógica es: armar una única cadena que está en todos los nodos y es aceptada por todos ellos. En cada nodo un mismo software verifica transacciones hasheadas y, pasado un tiempo fijo, las sella en un bloque, les pone una marca temporal, hashea el bloque e intenta ensamblar ese hash en la cadena principal luego de una pow previa. El nodo que tiene la mayor capacidad de cómputo es el que logra ensamblar en la cadena el bloque que logró sellar. Los demás mineros, más lentos, certifican si las transacciones empaquetadas son genuinas. Si una mayoría de cpu está de acuerdo con esto, el bloque queda definitivamente ensamblado y se pasa a verificar el próximo bloque. Las transferencias de propiedad así constituidas son genuinas e inmutables.


-Satoshi Nakamoto. 2008. Bitcoin: A Peer-to-Peer Electronic Cash System, satoshin@gmx.com,
  https://bitcoin.org.
-Albert Jay Nock. 2009. Nuestro Enemigo El Estado. Traductor: Jorge Antonio Soler. MisesHispano,
  https://mises.org/library/book/our-enemy-state.
Read All... Leer Todo...

jueves, octubre 31, 2024

Sobre la Información

La información es un aspecto del mundo que me apasiona y que siempre me sorprende. Nunca dejo de pensar e investigar sobre ello. A pesar de esto, no he leído o entendido una interpretación definitiva de su significado1. Siempre queda información oculta. No tengo respuestas concluyentes al dilema de si la información es una característica fundamental de la naturaleza -así como lo son el espacio, el tiempo y la masa- o si sólo se trata de una construcción imaginaria de la mente humana en su batalla por entender e interpretar el mundo real. Tal es la discusión que pretendo rescatar en esta nota.

Una definición que me impresiona dice: la información es el contenido, una fórmula, que describe o permite describir algo. Esta idea se aproxima más a la noción imaginaria que a la noción real de información. El “algo” puede ser real o imaginario, pero lo determinante aquí es la expresión “describe o permite describir”. Describir algo es poner ese algo en términos que la mente lo pueda entender, es trasformarlo en un concepto manipulable por la razón. Y por ello, la información así entendida es un objeto mental que satisface ese apetito cognitivo.

A pesar de este sesgo semántico que surge en el contexto del entendimiento humano, se tienen cinco enfoques sobre la significancia e importancia de la información: el natural, el termodinámico, el cuántico, el holográfico y el computacional.

La teoría física -el enfoque natural- dice que la información es una característica esencial de los sistemas físicos y está representada por el estado del sistema, la interrelación de sus elementos y sus posibles configuraciones. Aquí la información es lo que permite distinguir un estado de otro, nunca se destruye y siempre se conserva. Este concepto pone el énfasis en el aspecto estructural y funcional de la información ya que la considera fundamental para la estructura y dinámica del sistema.

La teoría termodinámica dice que la entropía contiene información. La entropía es una medida de la incertidumbre del sistema. A mayor entropía, mayor es la información escondida o dispersa en el sistema por lo que mayor será el esfuerzo requerido para describirla. Bajo esta idea, un sistema del cual se conoce todo no contiene información; es de la incertidumbre, de lo desconocido, desde donde emerge o puede surgir información sobre algo. Aquí, el concepto de entropía pone el énfasis en cómo la información se transforma y propaga en el tiempo.

En teoría cuántica la información es fundamental porque describe o permite describir el estado de las partículas fundamentales. Los bits cuánticos (o qbits) permiten representar información en estados superpuestos, mientras que los entrelazamientos cuánticos permiten relacionar la información a grandes distancias. Este enfoque sostiene que la información está contenida en los estados superpuestos del sistema y siempre es de naturaleza probable según lo determinado por una función de onda. Si bien un qbit puede permitir representar y procesar una cantidad enorme de información, de él sólo se puede recuperar 1 bit de información porque al momento de rescatar información del sistema, la función de onda colapsa en un único estado posible.

El enfoque holográfico dice que la realidad completa es una proyección holográfica a partir de un código almacenado como conjunto de datos distribuidos en la superficie2 de una esfera cósmica. Aquí la información que genera la realidad está contenida en esa colección de datos codificados en la superficie de esa esfera. Este enfoque concibe a la información como si fueran las órdenes en un sistema genético en el cual la molécula de adn -el código genético- contiene todo lo necesario para generar un ser vivo. La información está oculta y distribuida en ese código; sólo hay que descubrirla y desde ahí surgen todas las manifestaciones posibles. Este enfoque se utiliza en los estudios de gravedad cuántica y la estructura espacio-tiempo.

Siguiendo este enfoque, se ha postulado que toda la información sobre un agujero negro está codificada en su horizonte de sucesos de modo que nada se pierde en la dinámica de estos objetos cósmicos. Esta noción podría ayudar a explicar la naturaleza interna de los agujeros negros: el interior es un vacío cuántico. Si la realidad es una proyección holográfica y si es la gravedad (la densidad de energía) quien ajusta el foco de la proyección, entonces puede existir un límite de gravedad (o densidad de energía) a partir del cual se apaga la proyección y solo persiste el código (los datos que la generan) en lo que se llama horizonte de sucesos. Seguir agregando masa (energía) al interior del agujero negro sólo redunda en filtrar información agrandando el horizonte sin posibilidades de proyección.

De ser válida esta especulación holográfica, entonces ocurre que no es el espacio-tiempo lo que colapsa en el interior del agujero negro, sino que la gravedad apaga por completo la proyección de la realidad. Yo llamaría a esta especulación como la “conjetura de Bekenstein”. Por qué se rompe el proyector? Porque la densidad de energía involucrada demandaría una densidad de código que transgrede la longitud de Planck. Bajo estas condiciones, sólo se preserva información, a escala de Planck, respecto a la ingente cantidad de energía a proyectar sin que ocurra proyección alguna; así surge un frustrado holograma local que es el agujero negro.

La teoría computacional considera que todo proceso en la naturaleza tiene su equivalente computacional. Aún mas, dada la condición humana de observador limitado de la realidad, ocurre que una abrumadora mayoría de estos procesos son irreducibles, es decir se vuelven rápidamente complejos e incomprensibles para el humano. Es aquí donde aparece la incertidumbre. En este enfoque, el universo es como un gran ordenador que ejecuta un enorme programa (código) que contiene todas las órdenes (información) requeridas para generar la realidad posible.

Y qué hay de la información en el contexto de la sociedad humana? Los humanos forman sociedades concertando espontáneamente sus actos individuales. La información relevante aquí es la que surge en los intercambios o interacciones entre las personas. El sistema de información más conocido y útil es el sistema de precios de mercado. Los precios determinan los estados del proceso de mercado e informan sobre los ajustes requeridos en el sistema de cooperación mientras las personas intentan aliviar las insatisfacciones más sentidas. El sistema de precios proporciona información para describir y corregir el sistema de cooperación en esa buena dirección.

Si bien la información en general precede al entendimiento humano, ésta se vuelve significativa para nosotros cuando es entendida como tal. Aquello que sorprende e impacta en la razón suele estar escondido en una complejidad de la misma forma en que un código guarda todo lo que de él se puede derivar. Obtener información significa descubrir ese código y obtener resultados al ejecutar el proceso subyacente como si fuera una aplicación computacional. Cada evento, cada fenómeno, tiene su código en donde se establece la realidad posible que emerge de él. Esa es información que precede a la realidad de modo que no podrá ocurrir aquello no permitido ahí.

En última instancia, la realidad está de alguna manera determinística o probabilísticamente predeterminada. Si así no lo fuera no podría ocurrir. Es decir, la realidad preexiste como información, como alguna clase de código configurado para crearlo todo. Lo nuevo, lo que surge de repente nos sorprende porque simplemente lo desconocemos aunque esa carencia, el desconocimiento, no pueda anular lo que últimamente puede pasar, dado el sólo hecho de ser posible. Cuando la información se revela, puede convertirse en leyes que la capturan perdiendo así la propiedad de aportar nuevos conocimientos sobre el mundo real.

Si bien cada uno de los enfoques discutidos tiene su lado imaginario, ligado a la comprensión humana, para todos ellos la información surge como un aspecto fundamental de la realidad no sólo en el sentido de que nada por debajo de ella lo explica sino también en el sentido de que la información está indisolublemente unida a la realidad. Ninguna teoría sobrevive si aparta la información como determinante de la realidad. Está presente en todo proceso. Así, la información posee su cualidad fundamental aunque sin desprenderse de su componente imaginaria ya que el entendimiento humano de algo siempre requiere de una descripción, de una fórmula, sobre ese algo, siendo esta descripción la propia información.


(1) Me pasa exactamente lo mismo con la luz, el vacío cuántico, la gravedad, la estructura lógica de la mente humana y la síntesis a priori de conocimientos. Quedo atrapado por las implicancias de los teoremas de Gödel, porque cada concepto final aparece como no definitivo a la vista de nuevas interpretaciones.
2 La cantidad total de información que se puede almacenar en un sistema está determinada por lo que se conoce como límite de Bekenstein. Jacob Bekenstein descubrió que la cantidad de información está superiormente limitada por la cantidad de energía y por la superficie de la esfera que contiene al sistema. A mayor energía o mayor superficie, mayor es ese límite. Almacenar información en una superficie está muy limitada ya que nada se puede alojar o codificar en longitudes más pequeñas a las de Planck.
Read All... Leer Todo...

lunes, octubre 21, 2024

Mis Profecías No Violentas

Si bien una profecía suele atribuirse a una revelación divina sobrenatural o alguna inspiración espiritual profunda, en este caso sólo se trata de una posibilidad o una especulación de convergencia de la acción humana en sociedad. De qué consiste esta especulación? Hacia dónde podría encaminarse la compleja vida social del hombre?.

Los humanos tienen el potencial de formar sociedades y civilizaciones enormes. El potencial para la cooperación es ilimitado. No hay barreras para concertar actos humanos salvo la regla que dice que para ser exitoso socialmente una persona debe ajustar sus actos a las exigencias de las leyes praxeológicas, de lo contrario fracasará.

Las leyes praxeológicas no son leyes naturales o escritas por los hombres sino ciertos principios que están dados a priori en la mente humana. Ludwig von Mises descubrió estas leyes analizando las consecuencias lógicas del axioma de la acción: "el humano actúa".

Resulta que la violencia no es precisamente una de esas conductas admisibles en una sociedad exitosa. En base al principio de la observancia praxeológica, uno puede deducir que una sociedad es exitosa sólo si es no violenta. La violencia destruye por completo las posibilidades de éxito duradero en el reino de la concertación de actos humanos. A partir de esta certeza se pueden plantear varias especulaciones.

Una de estas especulaciones dice que la sociedad humana en la tierra será fragmentada en dos partes: una mayoritaria con casi toda la población no violenta y otra porción minoritaria dominada por coerción y violencia extrema. Ambas partes quedarán totalmente desconectadas una de la otra tanto espacial como productivamente, sin ningún puente real que las vincule.

La sociedad no violenta podrá ser el reino de la riqueza, la prosperidad y la paz; mientras que la sociedad coercitiva quedará sometida a la más absoluta miseria, decadencia perpetua y violencia extrema. Dos mundos divergentes, completamente disconexos. Nada los podrá unir salvo algunas guerras eventuales.

La sociedad no violenta formará un orden evolucionado sintético, con todas sus tareas mecánicas y productivas administradas y operadas por robots que ejecutan algoritmos especializados coordinados mediante cerebros construidos con neuronas sintéticas. Mientras que la sociedad violenta forma un orden primitivo mecánico, con todas sus tareas operadas y administradas por fuerza bruta dirigida con el látigo de algún dictador.

El orden mecánico podrá perfeccionar su violencia garantizando pleno empleo con servidumbre totalitaria y guerras permanentes. Pero bajo el orden sintético uno podría preguntarse sobre el papel que queda para los humanos. En el orden sintético la función del hombre será aportar conocimiento sintético a priori -sólo generado por la mente humana- y atender la nueva problemática e ingentes demandas derivadas de los desafíos de una civilización cósmica.

La sociedad sintética se transformará en una civilización cósmica. Bajo el orden sintético se alcanza la escala técnica y operativa para este tipo de civilizaciones. Sólo un sistema de cooperación asistido por mentes humanas y sintéticas tendrá el poder de resolver los amenazantes desafíos de vivir y prosperar fuera del planeta tierra.

En un orden sintético las personas estarán armadas hasta los dientes. Se distribuyen armas para garantizar la autodefensa. La autodefensa requiere producir y distribuir las armas más sofisticadas para disuadir y combatir las amenazas de violencia provenientes de ambos órdenes. Es la distribución de la autodefensa y no el monopolio de la violencia lo que garantiza la paz y prosperidad en el orden sintético.

Será así la sociedad del futuro? Los humanos llevarán su civilización más allá de su propio planeta? Para hacer este viaje se requiere una sociedad integrada por mentes humanas y cerebros sintéticos? Una civilización cósmica necesita distribuir la autodefensa? Respuestas a estas preguntas es lo que pretendo abordar mediante mis profecías no violentas.

Read All... Leer Todo...

martes, octubre 15, 2024

No Es Mio Lo Que No Es Mio

La propiedad privada es el pilar fundamental de una sociedad. Sin propiedad privada no hay sociedad posible. La propiedad viene dada con la vida y la facultad creativa del humano. Bastiat sostiene que "la propiedad es aquello que obtiene el hombre al ejercer las aptitudes de la vida", aquello derivado de la libertad. Para Bastiat, la vida, la libertad y la propiedad son equivalentes porque al anular una de ellas se anulan las demás; la propiedad privada es una cualidad trascendente del ser humano.

La propiedad es tan omnipresente que a menudo ignoramos su trascendencia. Tal vez así lo sea porque es como un obsequio de la naturaleza humana. Es como la gravedad de la tierra: desconocemos su importancia mientras disponemos de ella pero su relevancia se nos aparece en su ausencia. Por ejemplo, la propiedad privada está condicionada por la violencia que surge en el contexto de la vida social del individuo. Dentro de ese marco, la violencia sobre la propiedad privada provoca un deterioro en el desempeño social de cada persona, destacándose así el papel crucial de la propiedad en la supervivencia. De aquí la necesidad de entender el significado del término "sociedad".

Qué es la sociedad? Una sociedad no es ni un ente ni un lugar. No constituye autonomía. No existe sin la voluntad humana. No es un organismo1 constituido por personas así como lo es un ser vivo formado por órganos fisiológicamente conectados. Mises lo deja claro: "la sociedad es cooperación, es acción humana concertada", es una manifestación de la voluntad humana. Es sólo eso.

El individuo y la concertación de los actos derivados de su mente es lo único relevante en una sociedad. Siempre está la voluntad de cada persona eligiendo cooperar o no cooperar; este es el inicio y el fin de una sociedad. Incluso en las situaciones más denigrantes de la condición humana, como en la esclavitud, es el individuo en su más profunda intimidad quien elige cooperar o no. Mises sostiene que para cada persona siempre existe la extrema opción del suicidio. De la voluntad del individuo surge la cooperación.

Dado que la voluntad del individuo determina la cooperación, entonces el individuo es dueño de su cuerpo y su mente, por lo que también es dueño de todo aquello que puede obtener usando su cuerpo y su mente. Negar esto significa negar la voluntad, negar los medios primarios de subsistencia. De la voluntad se deriva la primera propiedad del ser humano: su cuerpo, su mente y todos sus derivados. Junto a esta primera propiedad surge el derecho humano fundamental a disponer plenamente de ella.

La vida en sociedad no puede anular el principio (original) de la propiedad privada. La cooperación, la concertación de actos humanos, nunca anula la propiedad porque esto generaría inconsistencia natural y contradicción conceptual con la propiedad misma. Hans Hermann Hoppe deriva de aquí uno de los principio fundamentales de la ética, el principio de no agresión: "…ninguna persona tiene el derecho de interferir u obstaculizar el pleno dominio del cuerpo, la mente y los bienes de los demás…"

El principio de no agresión establece las bases para la libre producción y el libre intercambio, establece las bases del libre mercado y el sano capitalismo. Un reino social establecido bajo este principio nunca puede ser violento o agresivo con la propiedad privada. Bajo este reino la cooperación siempre es pacífica porque precisamente se establece sobre el principio donde la regla fundamental es la no violencia. De aquí surge la verdadera cooperación, la concertación espontánea de actos humanos.

Conocido lo que es pero especialmente lo que no es una sociedad, se debe aclara por qué la propiedad privada -y no otra forma de propiedad- es su determinante fundamental. Dado que no hay sociedad sin individuo, dado que no hay sociedad sin razón, voluntad y emoción, y dado que el individuo es dueño de su cuerpo, su mente y sus derivados, dado que esto último determina la propiedad, entonces ningún otro sistema social puede ser consistente con el principio de no agresión al constituir propiedad de alguna forma distinta.

Cualquier otro sistema social es violento y anula la propiedad privada. Por esto es efímero. Un sistema social que no surge por concertación espontánea de actos humanos no puede ser perdurable porque destruye la propiedad privada, destruye las certezas sobre su dominio, porque anula la máxima certeza relevante de la vida social del hombre en donde se sabe que es mio lo que es mio pero especialmente se sabe que "no es mio lo que no es mio".


(1) Las personas no se reúnen tal como lo hacen las células, los músculos y los nervios para formar una entidad superior, donde emergen nuevas funciones y propiedades físicas a la luz de nuevas autonomías. Las personas cooperando no crean nuevas autonomías, sólo concertan sus actos individuales para obtener determinados resultados que cada persona valora como subjetivamente atractivos. Es más, la mejor manera de cooperar que tienen las personas, la mejor manera de concertar sus actos, es ajustando espontáneamente la cooperación mediante la asistencia del sistema de información que surge de las valoraciones subjetivas de todo aquello que la misma concertación genera; las personas ajustan su cooperación asistidos por el sistema de precios de mercado. Así, la cooperación es una mera creación de la mete humana, que se inicia con una construcción imaginaria subjetiva y se sostiene por los ajustes subjetivamente sugeridos por la mente. El individuo y su mente es lo que importa.
Read All... Leer Todo...

domingo, julio 28, 2024

The Praxeological Character of Socialism

Human Action, p. 696-698. Ludwig von Mises.

The essential mark of socialism is that one will alone acts. It is immaterial whose will it is. The director may be an anointed king or a dictator, ruling by virtue of his charisma, he may be a Fuhrer or a board of Fuhrers appointed by the vote of the people. The main thing is that the employment of all factors of production is directed by one agency only. One will alone chooses, decides, directs, acts, gives orders. All the rest simply obey orders and instructions. Organization and a planned order are substituted for the “anarchy” [p. 696] of production and for various people’s initiative. Social cooperation under the division of labor is safeguarded by a system of hegemonic bonds in which a director peremptorily calls upon the obedience of all his wards.

In terming the director society (as the Marxians do), state (with a capital S), government, or authority, people tend to forget that the director is always a human being, not an abstract notion or a mythical collective entity. We may admit that the director or the board of directors are people of superior ability, wise and full of good intentions. But it would be nothing short of idiocy to assume that they are omniscient and infallible.

In a praxeological analysis of the problems of socialism, we are not concerned with the moral and ethical character of the director. Neither do we discuss his value judgments and his choice of ultimate ends. What we are dealing with is merely the question of whether any mortal man, equipped with the logical structure of the human mind, can be equal to the tasks incumbent upon a director of a socialist society.

We assume that the director has at his disposal all the technological knowledge of his age. Moreover, he has a complete inventory of all the material factors of production available and a roster enumerating all manpower employable. In these respects the crowd of experts and specialists which he assembles in his offices provide him with perfect information and answer correctly all questions he may ask them. Their voluminous reports accumulate in huge piles on his desk. But now he must act. He must choose among an infinite variety of projects in such a way that no want which he himself considers more urgent remains unsatisfied because the factors of production required for its satisfaction are employed for the satisfaction of wants which he considers less urgent.

It is important to realize that this problem has nothing at all to do with the valuation of the ultimate ends. It refers only to the means by the employment of which the ultimate ends chosen are to be attained. We assume that the director has made up his mind with regard to the valuation of ultimate ends. We do not question his decision. Neither do we raise the question of whether the people, the wards, approve or disapprove of their director’s decisions. We may assume for the sake of argument, that a mysterious power makes everyone agree with one another and with the director in the valuation of ultimate ends. [p. 697]

Our problem, the crucial and only problem of socialism, is a purely economic problem, and as such refers merely to means and not to ultimate ends. [p. 698]

Read All... Leer Todo...

martes, julio 23, 2024

Inferioridad Social del Colectivismo

El colectivismo humano (y todas sus variantes totalitarias) resulta ser un orden social completamente deficiente. Una sociedad con economía de mercado es infinitamente superior en sus prestaciones sociales respecto a aquella con economía colectivista. Todas las prestaciones económicas bajo condiciones de libre mercado son siempre positivas mientras que bajo el colectivismo casi todas son nulas. De aquí surge esta relación de infinitud. Para entender la idea, uno debe entender la noción de sociedad.

En la filosofía colectivista se niega la preponderancia de las partes y se pone al todo como precondición de existencia; una visión claramente miope y contradictoria que, particularmente, los colectivistas emplean para rechazar la importancia del individuo en la sociedad. Pero este enfoque se desmorona inmediatamente porque se tiene la plena certeza de que cualquier colectivo social sólo es como una clase particular de acción humana: la acción individual concertada entre personas.

En el contexto social, von Mises supera al mantra colectivista exponiendo el significado preciso de sociedad. La sociedad no es un ente, ni un contrato, ni un lugar; "la sociedad es, últimamente1, acción humana concertada, es cooperación." Es más, no cualquier cooperación es conveniente. Una sociedad colectivista es hegemonía pura, es un orden totalitario, coercitivo, violento y autista, donde siempre se impone la voluntad de alguien --un director, un jefe, un dictador, un monarca, un comité o los gobernantes-- sobre la voluntad del resto de los miembros. Una sociedad libre resulta superior ya que se caracteriza por ausencia de coerción, individualismo distribuido, iniciativa individual y autorrealización.

La versión extrema colectivista es el imaginario comunista/socialista, donde no hay propiedad privada, no hay dinero, no hay precios y el autismo económico es completo; es ausencia de mercado e intercambio interpersonal, es el reino del comando/control donde la división del trabajo y la concertación de la acción humana es coercitiva. Es el estado imponiendo todo. Es pérdida completa de libertades individuales. Es servidumbre voluntaria en su plena manifestación. El mercado es infinitamente superior porque es lo opuesto al colectivismo extremo.

El intervencionismo --abolir u obstaculizar el mercado-- es socialmente dañino porque destruye la generación, el uso y flujo de información en la sociedad, distorsiona o destruye el sistema de precios y degenera la división del trabajo y su concertación de actos humanos. El intervencionismo --el colectivismo gradual-- es la muerte lenta de las sociedades. Abolir u obstaculizar el mercado es equivalente a destruir riquezas, destruir prosperidad, es postergar la evolución humana e imponer la violencia, el conflicto, la decadencia. Es destruir civilizaciones y promover la extinción humana.

Es indiscutible que las consecuencias sociales del colectivismo son siempre desastrosas; pero su mayor problema nace de su deficiencia conceptual. Los colectivistas emplean el positivismo, el empirismo --y su inducción lógica-- como método para derivar resultados conceptuales. Sin entrar en detalles respecto a la debilidad epistemológica del método inductivo, los colectivistas no disponen de ningún caso observado que registre la supuesta superioridad del estado y del gobierno en los asuntos de política económica.

En toda la historia humana, hasta la actualidad, el intervencionismo/colectivismo siempre fue financiado de modo coercitivo. No hay ningún registro de financiamiento espontáneo masivo. Si el colectivismo pretende postularse como candidato de orden social superior, tendrá que probar que las personas eligen financiarlo espontáneamente, sin coerción, lo que significa competir en un mercado de servicios descentralizados. Sin esta evidencia, no hay inducción posible. Así, la superioridad social del colectivismo no está lógicamente probada por esta falla de homogeneidad, lo cual vuelve a sus predicados completamente débiles e injustificables.

Esto no ocurre con su contrincante lógica, la praxeología, la teoría de la acción humana. Esta teoría es la base conceptual del liberalismo económico, del libertarianismo. Los libertarios proponen un sistema de cooperación social no coercitivo, enteramente sostenido por la libertad, la ética de la propiedad privada, el libre mercado, el libre intercambio y la concertación espontánea de la acción humana. La base conceptual de este sistema social es pura a priori, dada por el axioma de la acción: "el humano actúa." Lo derivado de este axioma es completamente consistente con la irrebatible propuesta libertaria.

Si algún día el estado, el gobierno, logra obtener financiamiento competitivo, no coercitivo, entonces se tendrá un caso para reclamar las supuestas virtudes del colectivismo dada su inmediata extensión arbitraria de verdad. Hoy por hoy esa prueba no está. El financiamiento espontáneo otorgaría estatus praxeológico distinto al colectivismo, porque sería un emergente de la libre elección humana. La coerción, la ausencia de elección espontánea, es suficiente para postular la completa inferioridad social del colectivismo.


1 Énfasis no original.
Read All... Leer Todo...

sábado, julio 13, 2024

Fundamentos del AnarcoCapitalismo

El anarcocapitalismo es un sistema de cooperación social capitalista, de libre mercado, bajo ausencia del estado, ausencia absoluta de coerción, ausencia absoluta de violencia organizada. Ausencia del estado no quiere decir ausencia de reglas sino ausencia de legislación; reglas y legislación son cosas distintas. Bajo anarcocapitalismo surgen las reglas de la ley, la verdadera ley, la organización espontánea de la autodefensa. En este sistema no hay reglas compulsivas coercitivas sino una distribución uniforme de reglas para la autodefensa y para la cooperación espontánea entre personas. .

El anarcocapitalismo establece las condiciones de mercado apropiadas para generar y utilizar información1 social relevante. En cualquier proceso social, de concertación de actos humanos, la información se genera y aplica a nivel local. La información debe ser relevante para la razón. Esto es así porque cualquier acto humano debe pasar por la razón y la razón sólo opera a nivel del “individuo” que participa en el proceso de cooperación. La información sólo es relevante para cada persona que participa en el proceso social.

Las personas son todas distintas y de ahí la importancia que adquiere la información dispersa. Cada persona ve e interpreta el mundo a su modo; esa diversidad abre la posibilidad de dividir y concertar actos humanos. En un mundo de autómatas idénticos no habría diferencias para concertar.

Cada persona posee información sobre sus necesidades y posibilidades, sobre sus requerimientos y destrezas, sobre sus dotaciones y fines, sobre sus preferencias y sueños. Esta diversidad hace a los humanos muy distintos a la hora de dividir las tareas y concertar sus acciones en el permanente desafío de obtener la mejor satisfacción posible. Este resultado universalmente satisfactorio sólo se alcanza en el libre mercado.

El mercado es el mejor proceso de cooperación humana. Es el sustrato donde fructifica la prosperidad. No hay nada superior al mercado respecto a la concertación de actos humanos: es el arreglo económico más eficiente y beneficioso que se puede lograr. Ningún otro sistema económico lo iguala. Cualquier alternativa es inferior. De dónde viene esa superioridad?. Por qué a los humanos les perjudica el comando/control y les beneficia la libertad económica?.

La espontaneidad es una de las cualidades especiales del mercado. El mercado es un sistema de concertación que nadie diseña, dirige o controla. El mercado se autogestiona. El diseño, el comando y control social, no hace otra cosa más que romper la espontaneidad y con ello eliminar los beneficios de la libertad. Libertad y espontaneidad operan al mismo nivel y en el mismo sentido: a menor libertad, menor espontaneidad.

Lo que vuelve operativamente eficiente y beneficioso al mercado es la división del trabajo que ocurre bajo esas condiciones. En el libre mercado la espontaneidad permite la mejor división posible del trabajo. La división espontánea del esfuerzo al concertar actos humanos resulta ser la manera óptima de cooperar. Por qué.? En parte por la ausencia de violencia y en parte por la dispersión de la información.

La espontaneidad ocurre bajo ausencia de coerción. Todo tipo de coerción es acción violenta. La violencia no es beneficiosa en el contexto social porque siempre hay alguien perjudicado; el perjuicio mutuo nunca puede ser una razón por la cual se divide el esfuerzo y se concertan actos humanos! Una sociedad se cimienta y constituye sobre sus beneficios no sobre sus perjuicios. La espontaneidad es el único freno a la violencia en sociedad.

Uno se puede preguntar si es posible generar y aplicar violencia espontáneamente? Sí claro; es posible que alguien lo haga aisladamente. Lo que no puede ocurrir es la concertación espontánea de la violencia. Hay grupos de personas, como quienes forman el estado o los gobiernos, que dividan tareas y concertan actos para aplicar violencia! Es el pan nuestro de cada día. Pero eso sólo ocurre bajo coerción. No existe el orden espontáneo violento; es un oxímoron. Quienes aplican violencia son violentos y la concertación que los reúne es violenta.

Las ventajas de la concertación espontánea de actos humanos está estrechamente asociada a la distribución de información entre los miembros de una sociedad. Como se dijo, la información social relevante se dispersa uniformemente entre quienes participan en la cooperación. Si una sociedad ha de ser tal, ha de ser cooperación exitosa, entonces sus miembros tendrán que hacer el mejor uso posible de la información dispersa disponible a la hora de cooperar. Si no se respeta esta dispersión, lo que surge es un orden violento.

Ningún sistema centralizado que monitorea y recolecta esa información, tendrá la capacidad para aprovecharla del modo en que un esquema espontáneo lo realiza. Un proceso que genera y utiliza información de manera distribuida nunca será igualado por un esquema que recolecta y redistribuye información para ser empleada con los mismos efectos a como ocurre bajo el esquema original. Centralizar y redistribuir esa información requeriría esfuerzo adicional externo al proceso, por lo que cualquier centralización forzada resultaría no sólo ineficiente sino inconsistente con el proceso mismo que la genera.

Por esto toda variante colectivista nace malparida. La distribución uniforme de la información en un sistema social es la manera natural en que esa información surge y se emplea. Esa información se recoge y expresa en el sistema de precios. Esa es la máxima de los microestados del sistema. Cualquier otro arreglo sólo ocurriría a costa de perder información contenida en el mismo proceso social. Perder información es equivalente a empeorar la división del trabajo, es decir a obstaculizar el proceso de cooperación.

Obviamente, un fenómeno social no es un proceso termodinámico. El mercado no es un fenómeno natural, sino un fenómeno praxeológico, que emerge de la ación humana y se rige por leyes derivadas del axioma de la acción. Pero ningún proceso, incluidos los sociales, puede romper las leyes naturales. Un proceso social no puede crear información de la nada, ni destruir información sin modificar el proceso. Si un proceso social se centraliza, entonces pierde información social; mientras que si se libera, entonces gana información por la espontaneidad.

En una sociedad, en un sistema de cooperación, en donde la espontaneidad garantiza ausencia de violencia, resulta que la centralización, la coerción explícita, se vuelve rápidamente inviable por su inconsistencia operativa. La violencia derivada de la centralización destruye la información social. La información generada por la cooperación espontánea es siempre superior a la ofrecida por un esquema centralizado, siendo esta una de las causas por la cual colapsan los esquemas sociales centralizados: la centralización genera grandes pérdidas de información.

Así, una sociedad colectivista no sólo queda praxeológicamente disminuida y raquítica, ya que sus miembros no pueden actuar libremente, sino también naturalmente deficiente, porque pretende violar un principio natural que es inviolable. Toda centralización de procesos sociales genera pérdidas de información que nunca puede ser restituida y que, al principio, deteriora la división del trabajo y a la larga degrada y destruye el sistema de cooperación social. Por esto, la concepción colectivista nunca podrá socavar los fundamentos del anarcocapitalismo.


1 En general, la información es aquello --datos, eventos, fenómenos, etc.-- con algún significado y que tiene la cualidad de reducir la incertidumbre sobre algo --un dato, un evento, un fenómeno o algún aspecto específico--.

En el contexto de la teoría de la información, desarrollada por Claude Shannon, la información se mide en términos de reducción de incertidumbre; por ejemplo, la cantidad de información de un mensaje es la cantidad de sorpresa que genera. En un sistema clásico, la información de un mensaje se mide en bits (o entropía) y refleja la cantidad de incertidumbre que se elimina al conocerse el contenido del mensaje. La información obtenida de un sistema cualquiera es el colapso de la incertidumbre. En general la información y la incertidumbre son propiedades duales que se implican mutuamente, son como las dos caras de algo: viven en el mismo objeto.

Desde la perspectiva de la teoría de la información y de la teoría del calor, la incertidumbre es información confinada u oculta en los interticios de la complejidad. Desde ambas perspectivas, la incertidumbre se puede considerar como información que está presente pero aún no completamente revelada o comprendida. La información es incertidumbre colapsada; es el colapso de la incertidumbre lo que revela eso que está escondido en la complejidad.

Dado que la incertidumbre y la información son intercambiables, lo que mide a una mide a la otra. Por esto la entropía proporciona tanto una forma de cuantificar la incertidumbre como así también una medida del potencial de información en una complejidad. En general, la entropía mide la incertidumbre o el grado de sorpresa asociada con algo, con la complejidad; la información es la sorpresa obtenida cuando la incertidumbre colapsa.

También se puede definir a la entropía como la cantidad de información para describir una complejidad. Por ejemplo, la entropía de un conjunto de datos indica la cantidad de información necesaria para describir ese conjunto de manera completa. Cuando la entropía es alta, significa que hay muchas posibles combinaciones o resultados diferentes que se pueden obtener de esos datos y, por lo tanto, se necesita más información para describir uno de esos resultados. Por esto, una mayor entropía implica mayor "sorpresa" y, por lo tanto, más información nueva cuando se revela un resultado.

Si un evento es muy predecible --como lanzar una moneda cargada-- la entropía es baja porque hay poca incertidumbre; la información que se obteiene del evento es nula, no hay sorpresa. Si un evento es impredecible --como lanzar una moneda equilibrada-- la entropía es alta porque hay mucha incertidumbre sobre el resultado; el resultado genera sorpresa.

Al lanzar una moneda equilibrada, hay dos posibles resultados (cara o cruz) y cada resultado es igualmente probable. La entropía de este experimento es alta porque hay incertidumbre sobre cuál será el resultado. Aquí no se puede predecir el resultado con certeza, por lo que la información que se obtiene al saber el resultado del lanzamiento es significativa al desaparecer esa incertidumbre. La entropía extrema refleja azar puro sobre cada resultado y, por lo tanto, la información necesaria para describir esos resultados es mayor.

Con una moneda sesgada que siempre muestra cara, la entropía es baja porque el resultado es predecible. No hay incertidumbre en el resultado y la información obtenida al saber el resultado es mínima porque no reduce incertidumbre de ninguna manera. Así, cuando la entropía es baja, la incertidumbre es pequeña y la información obtenida al conocer el resultado es limitada, ya que el resultado esperado es casi seguro. Con baja entropía, la información necesaria para describir los resultados es menor.

En el contexto social pueden estar operando estas leyes de la información y la incertidumbre. Un esquema centralizado de información social no tiene acceso a los datos --de alta incertidumbre-- distribuidos en el contexto cercano a cada persona en particular; los datos recolectados y disponibles para el director no podrán capturar aquella información dispersa en la sociedad que pueda sorprenderlo, al momento de asignar sus recursos para atender las insatisfacciones más sentidas por sus súbditos. Esta pérdida de información relevante condena al director a asignar sus medios a la atención de insatisfacciones menos prioritarias. Estos efectos dañinos acumulados día tras día es lo que al final provocan el colapso definitivo del colectivismo, cuando cualquier asignación practicable por el director ya no genera satisfacción alguna.

Read All... Leer Todo...

lunes, julio 01, 2024

Los Beneficios de la División Espontánea del Trabajo

La división del trabajo es una ley praxeológica fundamental; no hay nada por debajo de ella que la explique, más allá de su superioridad lógica: la división de tareas y la concertación de actos humanos es siempre superior a cualquier otro arreglo social posible. Pero no cualquier división del trabajo es exitosa. El fenómeno funciona cuando ocurre bajo condiciones espontáneas de mercado. El mercado localiza los problemas para simplificarlos en la misma forma en que la navaja de Ockham sintetiza su explicación. Por qué esto funciona bien bajo condiciones de mercado?.

Qué es el mercado? Como lo dijo von Mises: "el mercado no es ni una entidad, ni un lugar, ni un contrato ni una organización; el mercado es el proceso mediante el cual las personas, concertando espontáneamente sus actos, producen e intercambian bienes económicos usando el dinero como medio de pago en sus desafíos para satisfacer lo mejor posible sus necesidades." Es más, el mercado es el mejor proceso de concertación, pues ningún otro lo supera.

La definición, proporcionada por Mises, es tan contundente que de ella se deriva la teoría económica completa. Es equivalente a la componente económica contenida en el axioma de la acción humana: el hombre actúa. Mises dijo: "la teoría económica es el estudio del fenómeno de mercado, junto a sus causas y consecuencias en la acción humana." Pero por qué el mercado resulta ser el mejor proceso? De dónde viene la magia?.

Un sistema económico disminuido que sólo produce bienes finales empleando trabajo (L) y recursos naturales (N), una economía de trabajo y recolección, no ofrece muchas posibilidades para expandir el mercado. Si bien la propiedad privada, la libre producción y el libre intercambio con dinero resulta ser la mejor alternativa para dividir y concertar tareas, un sistema capitalista tan elemental tiene alcances y resultados limitados.

Si un sistema como este produce n bienes finales xi(Li, Ni), la extensión M de ofertas y demandas en el mercado queda superiormente acotada por la expresión M≤n[1+2]=3n, donde se tiene en cuenta los n bienes mas los dos factores productivos por cada bien xi. Si hay 1000 bienes entonces se tiene 3000 instancias de oferta/demanda. Es decir, el mercado de factores responde sólo linealmente al mercado de productos de consumo.

El cómputo de M se complejiza al considerar factores de producción producidos, más allá del trabajo y los recursos naturales. Los factores producidos generan nuevos requerimientos de trabajo y recurso naturales, además de otros factores producidos. Si por ejemplo se tienen cinco capas de factores producidos tal que en cada capa, además de trabajo y recurso natural, se emplea 1 único factor producido salvo en la última capa, entonces por cada bien final se tendrá un Mi≤5+12+1=18 (5 factores producidos, 12 (6 y 6) trabajo y recursos naturales y 1 producto de consumo considerado).

Sabiendo que qis representa un factor producido y que el número de capas c es igual a cinco, el valor 18 se deriva al contar instancias oferta/demanda en el siguiente modelo:

xi(Li, Ni, qi1)
qis(Lis, Nis, qi(s+1)) 1≤s≤c-1
qic(Lic, Nic)

Para n bienes, M queda acotada por: M≤18n. Así, con 1000 bienes de consumo, el mercado se expande de 3mil a 18mil instancias de oferta/demanda por sólo agregar cinco capas de producción con un único factor producido en cada capa.

En el caso general de c capas y f factores producidos, el modelo para contar instancias oferta/demanda queda:

xi(Li, Ni, qi11, qi12, ..., qi1f)
qisk(Lisk, Nisk, qi(s+1)k1, qi(s+1)k2, ..., qi(s+1)kf), 1≤s≤c-1, 1≤k≤fs
qick(Lick, Nick) 1≤k≤fc

A pesar de la parafernalia de subíndices, de este modelo se obtiene que la cota superior Mi de instancias oferta/demanda para cada bien de consumo final es una expresión simple, tal como se aprecia en [2]:

Mi≤∑(s=1,c)fs+2(1+∑(s=1,c)fs) [1]
Mi≤2+3∑(s=1,c)fs [2]
M≤2+n(3∑(s=1,c)fs) [3]

Donde ∑(s=1,c)fs es la expansión de instancias oferta/demanda de factores producidos, 2(1+∑(s=1,c)fs) es la expansión de instancias oferta/demanda de trabajo y recursos naturales, n es el número de bienes de consumo, c es la cantidad de capas y f es la cantidad fija de factores producidos por capa, salvo en la última capa.

La cota (en [1], [2] y [3]) se expande según una serie exponencial de c operando sobre f y es por ello que un aumento de estos componentes hace explotar las instancias de oferta/demanda en el mercado, lo cual se corresponde con mayor producción, mas empleo de factores de producción, más productividad, mayor retribución a los factores, más ingreso, más riqueza y mas prosperidad.

Para dar una idea del efecto exponencial de c operando sobre f, considere el siguiente caso: si se tiene 10 bienes finales y ningún factor producido y por lo tanto ninguna capa intermedia, entonces M≤25; pero si se agregan 5 factores producidos y cinco capas, entonces M≤93770. Es decir las instancias potenciales de oferta/demanda pasan de un magro 25 a casi 100mil. Imagine lo que ocurre en una situación real donde hay millones de bienes involucrados en la enmarañada trama del sistema económico!.

Los factores de producción producidos son una componente esencial del capitalismo. La naturaleza no produce prosperidad para el humano; la prosperidad debe ser producida por el humano. Y la única manera de alcanzar éste objetivo es produciendo medios de producción. Una larga secuencia de factores producidos en cadena permite al humano generar más y mejores bienes de consumo final. Hace 200 años, con mercados muy primitivos, de las mil millones de personas en el mundo el 95% era pobre; hoy en día, de los 8 mil millones de seres humanos, sólo el 5% es pobre. Este es un logro del libre mercado y su división del trabajo.

Desde hace siglos se produce trigo y maíz; en el pasado, la siembra y la cosecha se ejecutaban con tracción a sangre: arado de mancera, bueyes y muchos humanos caminando sol a sol al lado de las bestias. Hoy en día, se siembran y cosechan esos granos con máquinas que requieren la producción y ensamblado de millones de piezas cada una de ellas producidas en complejas fábricas que emplean cientos de miles de trabajadores especializados. Por ello, la cosecha del pasado sólo cubría necesidades de príncipes, reyes y sus ejércitos, mientras que hoy en día la cosecha alcanza para cubrir requerimientos de 8 mil millones de personas. Esto resulta del uso de millones de factores producidos.

El comunismo/socialismo, esas variantes extremas del colectivismo, pretenden instalar una sociedad -un sistema de cooperación- sin propiedad privada y reemplazar el sistema de precios por un esquema centralizado de información económica. Bajo estas condiciones, de centralización compulsiva, desaparecería la oferta y demanda espontánea de factores producidos y se anularía toda fuente de riqueza y prosperidad de la vida social del hombre. Por eso colapsan estos sistemas. El comunismo/socialismo, como toda clase de colectivismo, sólo traen pobreza, miseria y violencia al desatar el colapso en la red productiva espontánea.

Se observa que la ley de división del trabajo opera en perfecta correspondencia con el fenómeno económico de mercado. Ocurre que la localización del fenómeno económico intensifica los beneficios de la división del trabajo. Esta localidad maximiza beneficios porque la más uniforme distribución de la información localizada permite extender al extremo los alcances de la división del trabajo. Esto sólo ocurre bajo condiciones espontáneas del libre mercado. De ahí la superioridad de este sistema de cooperación social.

La explosión exponencial de ofertas y demandas sólo ocurre bajo condiciones de libre mercado, siendo esto lo mejor para generar riqueza y prosperidad. Cualquier interferencia, cualquier obstáculo al libre mercado, contrae la cota de expansión de oferta/demanda y con ello degrada la capacidad del mercado para generar beneficios. Poner restricciones a las personas en el mercado siempre encoge las posibilidades de producción y empleo de factores productivos, siempre destruye los beneficios de la división espontánea del trabajo.

Read All... Leer Todo...

viernes, junio 07, 2024

Es Ley La Segunda Ley?

Cada vez que leo y releo los capítulos de la mecánica estadística en general y de la segunda ley de la termodinámica en particular, resuena exactamente la misma interrogante. Me pregunto a menudo si este último constituye un capítulo cerrado de la física. Ocurre que siempre surge algo misterioso ligado a la segunda ley, siempre surge el fantasma de la incertidumbre. Se me congela la mente cuando pienso en la aceptación del fenómeno aleatorio por la sola imposibilidad de descubrir la última causalidad, siendo la probabilidad la única respuesta a tal limitación. Veamos esto en el contexto de la segunda ley.

La segunda ley de la termodinámica sostiene que si un sistema termodinámico es liberado de sus restricciones iniciales, entonces evoluciona hacia un estado de máximo desorden, máxima entropía, máxima incertidumbre y máxima información. Por las misma características y condiciones iniciales, al principio el sistema está más ordenado, tiene baja entropía, baja incertidumbre y se requiere poca información para describir su estado; pero por alguna razón, que no deja de ser misteriosa, el sistema evoluciona hacia el desorden y la incertidumbre.

Que algo se vuelve más incierto quiere decir que al principio la densidad de probabilidad de microestados del sistema subyacente es no uniforme y, mientras el sistema evoluciona, la densidad de probabilidad se vuelve uniforme, con microestados igualmente probables y macroestado más aleatorio y entrópico. Por esta descripción, uno tiende a pensar que la evolución de los sistemas físicos expresan cierto apetito por la uniformidad y aleatoriedad en su densidad de microestados.

Aunque en rigor, tal apetito sólo es la manifestación de un fenómeno probabilístico. Se acepta la idea de que todo proceso termodinámico es un fenómeno fundamentalmente probabilístico en el cual la convergencia hacia densidades uniformes resulta de la abrumadora abundancia de configuraciones uniformes en relación a las no uniformes. Es decir, la densidad límite de microestados del sistema es finalmente uniforme porque esa es la configuración más abundante, más probable. Con esta explicación termina la segunda ley.

Pero, al examinar con cuidado los detalles conceptuales del sistema termodinámico, surge la pregunta sobre la significancia e implicancia de la aleatoriedad; ¿existe aquello que se presupone aleatorio?.

La respuesta puede estar en la teoría computacional. En este contexto, existen dos principios fundamentales de la computación. El primero sostiene que todo proceso, independiente de su naturaleza, tiene su equivalente computacional. El segundo establece que los procesos relevantes se vuelven rápidamente irreducibles. Irreducible quiere decir que es imposible obtener un estado del proceso sin ejecutar el proceso mismo.

Un ejemplo sobre proceso irreducible lo es la operación de la regla 30 ejecutada por un autómata celular. Suponga que un autómata (un programa) ejecuta la tarea de pintar cuadraditos celulares dispuestos en una linea, asignando un color blanco o negro según el color de los tres cuadraditos vecinos de la línea inmediata superior. La combinación de colores de los tres cuadraditos superiores tiene 8 casos posibles y, según como se pinte el cuadradito inferior, se configurará una regla que adopta la forma de un número entero escrito en código binario.

En la figura de arriba se muestran la regla 0, la regla 1, la regla 2 y la regla 255 (resumiendo las 256 reglas en total). Cada regla señala cómo se pinta el cuadradito inferior según los tres cuadraditos vecinos superiores para cada uno de los ocho casos posibles. De la misma manera se fija la regla 30, así como aparece en la imagen siguiente.

Cuando el autómata aplica la regla 30 partiendo desde un simple cuadradito negro superior, en unos pocos pasos el estado del proceso queda aparentemente aleatorio en el sentido de que no es posible determinar tal estado sin ejecutar el proceso. En la figura siguiente, se aprecia que la evolución del proceso se vuelve rápidamente irreducible.

La irreducibilidad tiene consecuencias drásticas para la teoría de fenómenos aleatorios. Que un proceso "se vuelve rápidamente irreducible" quiere decir que no es posible obtener una fórmula para computar sus estados avanzados simplemente porque el humano es un observador computacionalmente limitado. Y esa limitación no puede cambiar, dada la propia naturaleza humana: el humano no es omnisciente.

Con capacidad de cómputo ilimitada ningún proceso sería irreducible, lo cual significaría que todo estado que luce aleatorio dejaría de serlo para quedar evidentemente ligado a la cadena causal que lo determina. Sería el fin de la aleatoriedad y toda su inexplicable complejidad. Toda la naturaleza quedaría determinísticamente explicada.

Bajo irreducibilidad, la evolución de un sistema termodinámico sería convergente no a algo complejo, desordenado e incierto, sino a una configuración, un orden, en donde los microestados del sistema no son probables sino perfectamente determinados al resolver un sistema de ecuaciones deterministas. No es que los microestados se vuelven igualmente probables con la evolución sino que siempre son así y sólo al final emerge esta propiedad.

La irreducibilidad termodinámica significaría el fin de la segunda ley e impondría un cambio en toda la mecánica estadística y en los fundamentos de la física en general. Sería la más grandes de todas las revoluciones en toda la historia de la física y la ciencia completa. Eso es lo que podría ocurrir si no es ley la segunda ley.

Read All... Leer Todo...

lunes, mayo 20, 2024

El Destino Último del Cosmos

El Big Bang, ese evento único de la creación, fue la chispa divina mediante la cual el creador inició su obra maestra: el cosmos. Hace unos 14mil millones de años, ocurrió una colosal explosión de espacio-tiempo que desató todo lo que ocurre y todo lo que ocurrirá por siempre. Así se inició la existencia. Existencia a la cual tenemos el privilegio circunstancial de pertenecer.

Si bien, los capítulos intermedios de esta magnífica manifestación son desbordantemente asombrosos, el desenlace final puede ser desgarradoramente trágico. Desde el mismo inicio de la creación quedó escrito un sombrío destino de vacío, frialdad y oscuridad cósmica. El cosmos pude morir.

Toda la evidencia apunta en esa dirección. A juzgar por lo que hoy se sabe, se trata de una posibilidad seria. El cosmos se expande aceleradamente creando vacío. Y eso, a la larga, en unos 10100trillones de años, provocará la separación de todos los eventos y toda la existencia hasta alcanzar un desvanecimiento completo de la realidad. Al final, el universo descansará como un gélido y oscuro vacío.

En principio, una colosal explosión inicial de espacio-tiempo generó un campo cuántico fluctuante que tiene el poder de fabricar vacío por toda la eternidad. Esta creación perpetua de vacío es lo que terminará desgarrando, enfriando y oscureciendo el universo hasta convertirlo en un cadáver de sólo espacio-tiempo. El espacio-tiempo explotó, se transformó y evolucionó pero de todo eso sólo espacio-tiempo quedó.

La energía que impulsa la expansión acelerada del universo se llama energía oscura o energía del vacío. No se sabe bien de qué consiste esta energía, y se la ha calculado en aproximadamente 1 protón por metro cúbico de espacio; se sospecha que esta energía proviene de fluctuaciones intrínsecas de un campo cuántico que llena el vació.

La ecuación de campo de la teoría general de la relatividad captura en parte el efecto expansión del espacio-tiempo a travez de lo que se llama "constante cosmológica". Albert Einstein agregó esta constante en su ecuación de campo para cuadrar los efectos que tiene la densidad energía-momento sobre la geometría global del espacio-tiempo en un universo estático. Esta constante presupone que la densidad de energía no cambia con la expansión del espacio-tiempo.

La evolución de la densidad de energía en el vacío permite derivar conclusiones trascendentes sobre el destino del universo. Si la densidad disminuye, entonces la energía oscura es como una quintaescencia que permite una expansión menos intensa pero acelerada del vacío. Si la densidad es constante, entonces la energía se llama constante cosmológica. Si la densidad aumenta entonces la energía oscura es una energía fantasma que genera condiciones para lo que se llama Big-Rip o desgarro absoluto del cosmos.

En cualquiera de estos casos, el universo decae en una disolución eterna. Sea por expansión moderada, por surgimiento de horizontes de sucesos o por desgarro precipitado, el universo se disuelve. Cualquiera de estas alternativas expresa el dominio final del vacío y de la energía oscura del espacio-tiempo.

Será así la historia de la creación? Este es el dominio del creador. Los detalles de la historia escapan a la comprensión humana. El hombre puede descubrir las posibilidades sin llegar a entender el significado de una muerte tenebrosa como el destino último del cosmos.

Read All... Leer Todo...

miércoles, mayo 01, 2024

Naturaleza del Tejido Cuántico

A nivel cuántico, en ausencia de medición y para cada instante infinitesimal, todos los estados de cualquier propiedad de una partícula están superpuestos. Por esto se dice que las propiedades de las partículas no están definidas con precisión absoluta antes de la medición. Esta es la idea central y más revolucionaria de la teoría: el concepto de superposición cuántica y la naturaleza probabilística (indeterminada) de las propiedades de las partículas; algo omnipresente a nivel cuántico.

En física clásica, se asume que las partículas tienen propiedades bien definidas en cada instante. Así, propiedades como posición, velocidad, momento, tiempo, etc., toman valores absolutos independientemente de si estas propiedades son observadas, medidas o calculadas. Por ejemplo, si una pelota está en movimiento, se puede decir con certeza cuál es su posición y velocidad en cualquier instante dado, aún sin observarla. No es que cada propiedad puede tomar uno de varios valores posibles sino que sólo puede tomar un único valor con absoluta certeza.

En contraste, la mecánica cuántica sugiere que, hasta que se realice una medición, las partículas como electrones, fotones, etc., no tienen valores definidos para ciertas propiedades. En lugar de eso, lo que se define es una función de onda que proporciona la información sobre la probabilidad de encontrar la partícula en un estado particular cuando se mide. Esta función de onda puede describir múltiples posibilidades simultáneamente —un estado conocido como superposición—.

Cuando una medición (observación o cálculo) es realizada, la función de onda "colapsa" a uno de los posibles estados definidos, y es en ese momento que la propiedad de la partícula (como la posición o el momento) toma un valor concreto. Antes de la medición, decir que una partícula tiene una posición o momento específico no tiene sentido dentro del marco de la mecánica cuántica.

Así, las propiedades de las partículas son intrínsecamente probabilísticas hasta que son observadas, medidas o calculadas. Se dice entonces que, a nivel cuántico, los sistemas tienen estados superpuestos que colapsan o se manifiestan en el instante de la observación práctica o derivativa.

El fenómeno de incertidumbre no expresa una limitación tecnológica en la capacidad de medir o calcular sin perturbar, sino una propiedad fundamental de cómo funcionan las partículas a nivel cuántico. El Principio de Incertidumbre de Heisenberg formaliza matemáticamente este aspecto, estableciendo un límite a la precisión con la que ciertas propiedades pueden ser conocidas simultáneamente.

La idea de que las propiedades de una partícula están en superposición antes de realizar una medición es una manera de entender la naturaleza de la función de onda cuántica. La función de onda encapsula toda la información posible sobre el estado de una partícula y describe una superposición de todos los posibles estados en los que la partícula puede encontrarse.

Superposición, colapso e incertidumbre se combinan de la siguiente manera:

a. Superposición Cuántica: Una partícula, como un electrón en un átomo, no tiene una posición o un momento definidos antes de la medición. En lugar de eso, la función de onda del electrón describe una superposición de todos los posibles lugares donde podría encontrarse el electrón. La forma exacta de la función de onda depende del sistema y de las condiciones a las que está sujeta la partícula.

b. Evolución Temporal: La evolución en el tiempo de la función de onda de una partícula está regida por la ecuación de Schrödinger, una ecuación fundamental en mecánica cuántica. Según esta ecuación, la función de onda evoluciona de manera determinista mientras no se realice ninguna medición. Esto significa que, en ausencia de observación, el estado de superposición de la partícula cambia con el tiempo de acuerdo a principios predecibles.

c. Colapso de la Función de Onda: Cuando se realiza una medición, como determinar la posición de un electrón, la función de onda se "colapsa" a un estado particular. Es decir, de todas las posibilidades descritas por la función de onda, se selecciona una en el acto de medir. Antes de esta medición, no es correcto decir que el electrón estaba en alguna posición específica.

d. Efecto Incertidumbre: El colapso de la función de onda es de tal forma que la precisión en la medida de una propiedad determina la incertidumbre en la medida de la propiedad (conjugada) de un par (a, b), según las exigencias establecidas en las expresiones del principio de incertidumbre: el aumento en la precisión al medir una propiedad, incrementa la incertidumbre en la medida de la propiedad conjugada.

En cada instante y mientras las propiedades cuánticas no han sido medidas, se considera que la partícula mantiene sus propiedades en estados superpuestos con todas sus posibilidades permisibles según su función de onda. Esto no se limita a propiedades como posición-momento o energía-tiempo; también incluye otras propiedades como el espín, la polarización, entre otras. Cualquier partícula cuántica permanece en ese estado incierto de superposición.

Este principio es lo que habilita el surgimiento de ciertos fenómenos como la interferencia y el entrelazamiento cuántico, que son fundamentales en tecnologías emergentes como la computación cuántica y la criptografía cuántica.

El principio de incertidumbre emerge del formalismo matemático empleado para abordar el estudio de la naturaleza cuántica y ondulatoria de la materia. Tal Principio se puede derivar y entender completamente a través del formalismo de operadores y espacios de Hilbert en mecánica cuántica, sin necesidad de recurrir a otros principios de la física.

¿De dónde proviene, últimamente, la superposición de estados cuánticos? ¿Por qué las propiedades a nivel cuántico permanecen superpuestas? En principio esto ocurre porque los fenómenos a nivel cuántico tienen permitido esa posibilidad, grado de libertad que se pierde a medida que las fuerzas naturales consolidan los estados macroscópicos.

La superposición puede estar ocurriendo porque esa libertad, de estados superpuestos, le otorga mayor flexibilidad y estabilidad al sistema cuántico. La miriada, el maremagma, de fenómenos que ocurren a pequeña escala colapsaría en un caos bajo condiciones deterministas por las ingentes demandas de energía-tiempo destinadas a la coordinación de estados cuánticos.

Pero la incógnita persiste! Puede estar ocurriendo que a pequeña escala se vuelve relevante no sólo la granulometría fina de la masa (y la energía) sino también la cuantización del espacio-tiempo. Así como hay cuantos de acción expresados por la constante de Planck, pueden existir cuantos de espacio-tiempo, todavía no medidos ni teorizados, que dejarían a los fenómenos con propiedades indeterminadas. Así de extraña podría ser la naturaleza del tejido cuánticos.

Read All... Leer Todo...