viernes, 21 de septiembre de 2018


LA CORRUPCIÓN Y EL GRAVE DAÑO A LA GOBERNABILIDAD

Eduardo Vega Luna
eduardo.vega@uarm.pe

Huancayo, 11 octubre 2018

INTRODUCCIÓN
La corrupción está causando un grave daño a la gobernabilidad del país. Ha paralizado grandes obras públicas y dejado sin puestos de trabajo a miles de peruanos. Ha detenido la economía y afectado la libre competencia. La corrupción está vulnerando los derechos de muchos peruanos que no pueden acceder a servicios básicos de calidad en educación, salud, saneamiento y transporte. En resumen, está socavando las bases mismas de la construcción de un país y su integridad.

La visita del Papa Francisco colocó a la corrupción como uno de sus temas centrales, junto con el respeto a los pueblos indígenas, el cuidado del medio ambiente, el rechazo a la minería ilegal y la trata de personas, la violencia contra la mujer, el feminicidio y la inseguridad ciudadana. Calificó a la corrupción como el “virus social” que lo infecta todo y que nos roba la esperanza. El Perú y “gran parte de Latinoamérica sufre en su política una gran decadencia debido en parte a la corrupción. El caso Odebrecht es simplemente una anécdota chiquita”.

REFLEXIONES INICIALES
Figura 1. Presidentes con indicios de corrupción

Los últimos gobiernos se han visto involucrados en el más grande caso de corrupción en América Latina: el caso Lava Jato. En su reciente declaración Marcelo Odebrecht señala: “con seguridad sí apoyábamos a los principales candidatos en todas las elecciones”.

Necesitamos recuperar la confianza ciudadana con verdadero liderazgo y acciones efectivas. Tenemos que cambiar la forma en que hemos venido enfrentando la corrupción y su círculo vicioso de tolerancia, indiferencia, complicidad o impunidad frente a ella.

Lava Jato muestra la forma cómo operaba la corrupción en Brasil, Perú y otros países de América Latina. Este comprendía 1) el financiamiento sistemático de campañas políticas, lo que les permitía congraciarse con los futuros gobernantes; 2) adjudicarse grandes obras públicas a bajo precio y sin una competencia real; 3) la sobre valoración de las obras públicas adjudicadas mediante adendas y adicionales; 4) la manipulación de arbitrajes poco transparentes en perjuicio del Estado; 5) el pago de sobornos; y 6) la creación de empresas off shore a donde se desviaban los dineros robados al Estado.

Lava Jato también muestra la debilidad del Estado para detectar, prevenir y sancionar la corrupción. Durante estos años, no han funcionado los sistemas de contrataciones públicas, ni el control y las auditorias y, finalmente, no ha funcionado como se esperaba el sistema de justicia para sancionar estas prácticas corruptas. El resultado: la impunidad frente a la corrupción.

MI ARGUMENTACIÓN FORMAL
Figura 2. Los rostros nuevos de la corrupción

Sin duda no hay una respuesta sencilla en medio del permanente enfrentamiento político entre poderes públicos y los propios grupos políticos. Sin embargo, la respuesta nos debe llevar a los temas centrales para enfrentar la corrupción.

Necesitamos recuperar la confianza ciudadana con verdadero liderazgo y acciones efectivas. Tenemos que cambiar la forma en que hemos venido enfrentando la corrupción y su círculo vicioso de tolerancia, indiferencia, complicidad o impunidad frente a ella. Se requiere un liderazgo y ejemplo directo al más alto nivel y, por supuesto, resolver la situación del propio presidente de la República. También es necesario advertir que no sólo es un tema de autoridades sino también del sector privado, de las empresas y de la ciudadanía en general. Necesitamos revertir la alta tolerancia social que hay frente a la corrupción. Es decir, tener una lucha integral y permanente contra la corrupción con la participación de la ciudadanía.

Debemos fortalecer la institucionalidad democrática en tres áreas importantes: La reforma del sistema político, el fortalecimiento de la institucionalidad con verdaderos sistemas de integridad en el sector público y privado y un sistema de justicia especializado con mayores recursos para luchar contra la impunidad. La política se ha visto inundada de dineros ilícitos, que no tienen mayor control en las campañas electorales, a cambio de favores políticos, adjudicación de contratos públicos y tráfico de influencias. La corrupción en el sistema político tiene un gran impacto en la vida de las personas y en el descrédito de la política y los políticos. La Comisión Presidencial de Integridad, el Jurado Nacional de Elecciones y diversos congresistas han propuesto cambios urgentes para impedir que dinero ilícito ingrese a financiar campañas electorales, como las próximas elecciones regionales y municipales de noviembre del 2018.

CONCLUSIONES
Pero el esfuerzo mayor tiene que estar en fomentar una cultura de honestidad e integridad y ética entre los peruanos. Las múltiples iniciativas contra la corrupción que se observan en la sociedad peruana constituyen signos de esperanza de que esta lucha puede ganarse. La promoción de la ética y la prevención de la corrupción tienen que ser esfuerzos sostenidos y permanentes que motiven el compromiso y la construcción de redes ciudadanas contra este delito. Denunciar la cultura de corrupción, de deshonestidad, es importante y eso solo se puede hacer fomentando una cultura de honestidad, integridad, ética y de valores. Es necesario que la política, la justicia y la sociedad civil trabajen juntos. La sociedad civil, las autoridades y las empresas deben ofrecer a todos los ciudadanos la oportunidad de construir un país honesto.

REFERENCIAS


viernes, 7 de septiembre de 2018


COMPUTACION CUANTICA

Angel Egoavil Felix
angelegoavilfelix123@gmail.com
Huancayo, setiembre 2018


La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de cúbits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos.
FIGURA 1: La esfera de Bloch es una representación de un cúbit

Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras que un computador clásico equivale a una máquina de Turing,1​ un computador cuántico equivale a una máquina de Turing cuántica.

ORIGEN DE LA COMPUTADORA CUANTICA

A medida que evoluciona la tecnología y se reduce el tamaño de los transistores para producir 
microchips cada vez más pequeños, esto se traduce en mayor velocidad de proceso. Sin embargo, no se pueden hacer los chips infinitamente pequeños, ya que hay un límite tras el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel.

Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son los suficientemente delgadas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente.

En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde la computación cuántica entra en escena.

La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 o 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de cúbits.

El número de cúbits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si se tenía un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si se tenía un vector de tres cúbits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así, un vector de tres cúbits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de cúbits.

Para hacerse una idea del gran avance, un computador cuántico de 30 cúbits equivaldría a un procesador convencional de 10 teraflops (10 millones de millones de operaciones en coma flotante por segundo), actualmente la supercomputadora Summit tiene la capacidad de procesar 200 petaflops.

PROBLEMAS DE LA COMPUTACION CUANTICA

Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuántica, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10–4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.

Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en cúbits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de cúbits para resolver problemas computacionalmente interesantes hoy en día.

HADWARD DE COMPUTACION

Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vincenzo, y hay varios candidatos actualmente.

Ingenieros de Google trabajan (2018) en un procesador cuántico llamado "Bristlecone".

Resultado de imagen para el ordenador cuantico
FIGURA 2: 18 Jul La Universidad de Harvard crea un ordenador cuántico de 51 Qubits, el más potente del mundo

BIOGRAFIA

Ordenador cuántico universal y la tesis de Church-Turing
Deutsch, D. "Quantum Theory, the Church-Turing Principle, and the Universal Quantum Computer" Proc. Roy. Soc. Lond. A400 (1985) pp. 97-117.
Uso de computadoras cuánticas para simular sistemas cuánticos
Feynman, R. P. "Simulating Physics with Computers" International Journal of Theoretical Physics, Vol. 21 (1982) pp. 467-488.
Computación Cuántica e Información Cuántica
Nielsen, M. y Chuang, I. "Quantum Computation and Quantum Information" Cambridge University Press (September, 2000), ISBN 0-521-63503-9.

LAS LEYES CUANTICAS DEL VALOR DE PI


Angel Egoavil Felix
angelegoavilfelix123@gmail.com
Huancayo, setiembre 2018


La mecánica cuántica lleva casi un siglo forzando a los científicos a abandonar algunas de sus intuiciones más arraigadas acerca del mundo físico. Como es bien sabido, las leyes que rigen el mundo microscópico impiden conocer con completa certeza el valor de ciertas cantidades o asignar propiedades bien definidas a un sistema antes de observarlo. Ahora, esos mismos principios acaban de permear la única disciplina que parecía a salvo de la incertidumbre cuántica. Según un experimento con átomos de hidrógeno realizado por investigadores de la Universidad de Rochester y avanzado parcialmente por Phys.org, Science Alert, Physics World y la revista Science, las leyes cuánticas obligarían a modificar el valor de una de las cantidades más célebres de las matemáticas: el milenario número pi.
Resultado de imagen para el cuantico de pi
Figura 1: Símbolo propuesto para el valor renormalizado de pi. [WFCBQS]
La mecánica cuántica lleva casi un siglo forzando a los científicos a abandonar algunas de sus intuiciones más arraigadas acerca del mundo físico. Como es bien sabido, las leyes que rigen el mundo microscópico impiden conocer con completa certeza el valor de ciertas cantidades o asignar propiedades bien definidas a un sistema antes de observarlo. Ahora, esos mismos principios acaban de permear la única disciplina que parecía a salvo de la incertidumbre cuántica. Según un experimento con átomos de hidrógeno realizado por investigadores de la Universidad de Rochester y avanzado parcialmente por Phys.org, Science Alert, Physics World y la revista Science, las leyes cuánticas obligarían a modificar el valor de una de las cantidades más célebres de las matemáticas: el milenario número pi.
El resultado es mucho menos extraño de lo que podría parecer a simple vista. Hacia los años cuarenta del siglo pasado, los físicos descubrieron que las leyes cuánticas implicaban que algunas “constantes” de la naturaleza, como la masa o la carga del electrón, no podían considerarse como tales, ya que su valor dependía del tipo de experimento que se efectuase para medirlas. Dicho fenómeno, conocido como renormalización, constituye una piedra angular de la moderna teoría cuántica de campos y ha sido verificado un sinnúmero de veces en el laboratorio. Ahora, según los expertos, el mismo mecanismo compelería a redefinir el número pi, por más que este se nos haya presentado a lo largo de la historia como una cantidad matemática “pura” e inmune al experimento.

“Pi puede también definirse como una cantidad física medible, ya que no es más que la longitud de una circunferencia expresada en ciertas unidades naturales, que son las que proporciona el diámetro del círculo”, explica Werner Rosenkohl, de la Universidad de Rochester y firmante del nuevo trabajo. En su experimento, los autores llevaron a la práctica esta idea con el átomo de hidrógeno, un sistema físico dotado de una simetría esférica perfecta y adaptado por tanto a los requisitos del problema. “Al igual que la incertidumbre cuántica nos fuerza a cambiar el valor de algunas cantidades en función de las condiciones experimentales, lo mismo sucede con el número pi”, continúa Rosenkohl. “Conocer su valor con una precisión de infinitas cifras decimales no es más que una ilusión derivada de nuestra arraigada, pero falsa, intuición clásica.”
Resultado de imagen para el cuantico de pi
                        Figura 2: Numero Pi en funcion del cuadrado circunscrito a la circunferencia.

Así pues, ¿cuánto vale ahora pi? ¿Obligará su valor renormalizado a reescribir los libros de texto? “El valor de pi con verdadero sentido físico dependerá del tipo concreto de experimento que estemos realizando», subraya Rosenkohl. “Si la carga del electrón depende de la energía a la que la midamos, el valor de pi cambiará en función de la complejidad del cálculo.” Esas modificaciones dejarán fuera a la inmensa mayoría de los cálculos habituales, aclara el investigador, si bien en problemas que atañan a la geometría cuántica del espaciotiempo pi solo podrá tomar valores enteros, siendo 3 el más probable.

Como suele suceder en estos casos, aquellos expertos con una visión holística y multidisciplinar de la ciencia han sido los menos sorprendidos por el hallazgo. “El número pi que conocíamos hasta ahora no era más que un constructo cultural heredado de la Antigüedad griega”, señala Dan Schytt, experto en filosofía cuántica del Centro de Estudios Biocuánticos de Westford Manor. “No era de extrañar que dicha estimación se correspondiese precisamente con su valor clásico”, enfatiza. Visionario, Schytt incluso se ha lanzado a proponer un nombre para la encarnación cuántica de pi. En la estela de qubit (la versión cuántica del bit, la unidad clásica de información), el investigador defiende llamarla qi, un término que encuentra apropiado por cuanto, además de una referencia al mundo cuántico, reivindica el concepto de flujo energético en la también milenaria tradición china.

Las aplicaciones para la recién nacida disciplina de la matemática cuántica no se harán esperar. Y es que los resultados del nuevo trabajo, que se publicarán próximamente en la prestigiosa Proceedings of the Royal Academy of Natural Knowledge, entrañan otra consecuencia inesperada: el valor de x se establecerá en 5 de una vez por todas, lo que permitirá ahorrar miles de millones de horas de cálculo al año a los futuros ordenadores.

TEORÍA GENERAL DE SISTEMAS DE VON BERTALANFFY
Angel Egoavil Felix
angelegoavilfelix123@gmail.com
Huancayo, setiembre 2018
EL DESPERTAR DE LOS SISTEMAS


Si alguien se pusiera a analizar las nociones y muletillas de moda hoy por hoy, en la lista aparecería entre los primeros lugares. El concepto ha invadido todos los campos ·de la ciencia y penetrado en el pensamiento y el habla populares y en los medios de comunicación de masas. El razonamiento en términos de sistemas desempeña un papel dominante en muy variados campos, desde las empresas industriales y los armamentos hasta temas reservados a la ciencia pura. Se le dedican innumerables publicaciones, conferencias, simposios y cursos. En años recientes han aparecido profesiones y ocupaciones, desconocidas basta hace nada, que llevan nombres como proyecto de sistemas, análisis de sistemas, ingeniería de sistemas y así por el estilo. Constituyen el meollo de una tecnología y una tecnocracia nuevas; quienes las ejercen son las «nuevas utopistas> de nuestro tiempo (Boguslaw; 1965}, quienes -en contraste con la cepa clásica, cuyas ideas no sa1ian de entre las cubiertas de los libros- están creando un mundo nuevo, feliz o no.

BREVE HISTORIA SOBRE LA TEORÍA DE LOS SISTEMAS

https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgeNMM1xVN6Vdjhyphenhyphenjjo0VpC3C9agMuw4TyhPk8eYcrRFiv6wuMmJpo9iFJ8D1382RNGfAyaf5GJ5qkfwsVKknNccMALV9AUAWLoHDvlUZtCOJZuC3BpBAcnQZ5ohnRzyIEGzBFr5BN-E-w/s1600/bertalanffy2.jpg

Figura 1. LUDWIG VON BERTALANFFY


Hemos visto ya que en todos los campos principales -de la física subatómica a la historia- reina el consenso acerca de la oportunidad de una reorientación de la ciencia. Hay progresos de la tecnología moderna paralelos a esta tendencia. Por lo que alcanza a averiguarse, la idea de una “teoría general de los sistemas” fue primero introducida por el presente autor, antes de la cibernética, la ingeniería de sistemas y el surgimiento de campos afines. Más adelante quedará expuesto (pp. 92 ss) cómo se vio llevado a ello, pero en vista de discusiones recientes parece indicada cierta ampliación. Como pasa con toda nueva idea, en la ciencia o donde sea, el concepto de sistemas tiene una larga historia. Si bien el término “sistema” como tal no mereció hincapié, la historia del concepto incluye muchos nombres ilustres. Como “filosofía natural” podemos remontarlo a Leibniz; a Nicolás de Cusa con su coincidencia de los opuestos; a la medicina mística de Paracelso; a la visión de la historia, de Vico e lbn-Kaldun, como sucesión de entidades o “sistemas” culturales; a la dialéctica de Marx y Hegel -por mencionar unos cuantos nombres de una rica panoplia de pensadores. El conocedor literario podrá recordar De ludo globi (1463; cf. Bertalanffy, 1928b) de Nicolás de Cusa, y el Glasperlenspiel de Hermann Hesse: ambos ven el andar del mundo reflejado en un juego abstracto, agudamente planeado. Hubo una que otra obra preliminar en el terreno de la teoría general de los sistemas. Las “Gestalten físicas” de Köhler (1924) apuntaban en esta dirección,pero no encaraban el problema con generalidad plena y restringían el tratamiento a Gestalten en física (y a fenómenos biológicos y psicológicos presumiblemente interpretables sobre esta base). En una publicación posterior (1927), Köhler planteó el postulado de una teoría de los sistemas encaminada a elaborar las propiedades más generales de los sistemas inorgánicos, en comparación con los orgánicos; hasta cierto punto, al encuentro de esta exigencia salió la teoría de los sistemas abiertos. La obra clásica de Lotka (1925) fue la que más cerca llegó del objetivo, y le debemos formulaciones fundamentales. La verdad es que Lotka se ocupó de un concepto general de los sistemas (sin restringiese, como Kóhler, a sistemas de la física). Como era estadístico, sin embargo, interesado en problemas de poblaciones más bien que en problemas biológicos de organismos individuales, Lotka -cosa algo rara- concibió las comunidades como sistemas, sin dejar de ver en el individuo una suma de células. No obstante, la necesidad y factibilidad de un enfoque de sistemas no fue evidente hasta hace poco. Resultó por necesidad del hecho de que el esquema mecanicista de vías causases aislables y el tratamiento merista resultaba insuficientes para enfrentarse a problemas teóricos, especialmente en las ciencias biosociales, y a los problemas prácticos planteados por la tecnología moderna. Su factibilidad quedó en claro gracias a distintos adelantos -teóricos, epistemológicos, matemáticos, etc.- que, aunque aún entre balbuceos, lo volvieron progresivamente realizable.


EN POS DE UNA TEORÍA GENERAL DE LOS SISTEMAS


https://xxnegocios04xx.files.wordpress.com/2008/09/teoria-general-de-sistemas.jpg

Figura 2. Mapa Conceptual de la T.G.S..


La ciencia moderna se caracteriza por la especialización siempre creciente, impuesta por la inmensa cantidad de datos, la complejidad de las técnicas y de las estructuras teóricas dentro de cada campo. De esta manera, la ciencia está escindida en innumerables disciplinas que sin cesar generan subdisciplinas nuevas. En consecuencia, el físico, el biólogo, el psicólogo y el científico social están, por así decirlo, encapsulados en sus universos privados, y es difícil que pasen palabras de uno de estos compartimientos a otro. A ello, sin embargo, se opone otro notable aspecto. Al repasar la evolución de la ciencia moderna topamos con un fenómeno sorprendente: han surgido problemas y concepciones similares en campos muy distintos, independientemente. La meta de la física clásica era a fin de cuentas resolver los fenómenos naturales en un juego de unidades elementales gobernadas por leyes “ciegas” de la naturaleza. Esto lo expresaba el ideal del espíritu laplaciano que, a partir de la posición y momento de sus partículas, puede predecir el estado del universo en cualquier momento. Esta visión mecanicista no se alteró -antes bien, se reforzó- cuando en la física las leyes deterministas fueron reemplazadas por leyes estadísticas. De acuerdo con la derivación por Boltzmann del segundo principio de la termodinámica, los acontecimientos físicos se dirigen hacia estados de máxima probabilidad, de suerte que las leyes físicas son esencialmente “leyes del desorden “, fruto de acontecimientos desordenados, estadísticos. Sin embargo, en contraste con esta visión mecanicista han aparecido en las varias ramas de la física moderna problemas de totalidad, interacción dinámica y organización. Con la relación de Heisenberg y la física cuántica se hizo imposible resolver los fenómenos en acontecimientos locales; surgen problemas de orden y organización, trátese de la estructura de los átomos, la arquitectura de las proteínas o los fenómenos de interacción en termodinámica. Parecidamente la biología, a la luz, mecanicista, veía su meta en la fragmentación de los fenómenos vitales en entidades atómicas y procesos parciales. El organismo vivo era descompuesto en células, sus actividades en procesos fisiológicos y por último fisicoquímicos, el comportamiento en reflejos condicionados y no condicionados, el sustrato de la herencia en genes discretos, y así sucesivamente. En cambio, la concepción organísmica es básica para la biología moderna. Es necesario estudiar no sólo partes y procesos aislados, sino también resolver los problemas decisivos hallados en la organización y el orden que los unifican, resultantes de la interacción dinámica de partes y que hacen el diferente comportamiento de éstas cuando se estudian aisladas o dentro del todo. Propensiones parecidas se manifestaron en psicología. En tanto que la clásica psicología de la asociación trataba de resolver fenómenos mentales en unidades elementales -átomos psicológicos se diría-, tales, como sensaciones elementales, la psicología de la Gestalt reveló la existencia y la primacía de todos psicológicos que no son sumas de unidades elementales y que están gobernados por leyes dinámicas. Finalmente, en las ciencias sociales el concepto de sociedad como suma de individuos a modo de átomos sociales -el modelo del hombre económico- fue sustituido por la inclinación a considerar la sociedad, la economía, la nación, como un todo superordinado a sus partes. Esto trae consigo los grandes problemas de la economía planeada o la edificación de la nación y el Estado, pero también refleja nuevos modos de pensar. Este paralelismo de principios cognoscitivos generales en diferentes campos es aún más impresionante cuando se tiene en cuenta que se dieron independientemente, sin que casi nunca interviniera nada de la labor de indagación en campos aparte. Hay otro aspecto importante de la ciencia moderna. Hasta no hace mucho la ciencia exacta, el corpus de las leyes de la naturaleza, coincidía casi del todo en la física teórica. Pocos intentos de enunciar leyes exactas en terrenos no físicos han merecido reconocimiento. No obstante, la repercusión y el progreso de las ciencias biológicas, de la conducta y sociales parecerían imponer un ensanchamiento de nuestros esquemas conceptuales a fin de dar cabida a sistemas de leyes en campos donde no es suficiente o posible la aplicación de la física.


EL PRECEPTO ÚLTIMO

Es concebible, sin embargo, la comprensión científica de la sociedad humana y de sus leyes por un camino algo diferente y más modesto. Tal conocimiento no sólo nos enseñará lo que tienen de común en otras organizaciones el comportamiento y la sociedad humanos, sino también cuál es su unicidad. El postulado principal será: el hombre no es sólo un animal político; es, antes y sobre todo, un individuo. Los valores reales de la humanidad no son los que comparte con las entidades biológicas, con el funcionamiento de un organismo o una comunidad de animales, sino los que proceden de la mente individual. La sociedad humana no es una comunidad de hormigas o de termes, regida por instinto heredado y controlada por las leyes de la totalidad superordinada; se funda en los logros del individuo, y está perdida si se hace de éste una rueda de la máquina social. En mi opinión, tal es el precepto último que ofrece una teoría de la organización: no un manual para que dictadores de cualquier denominación sojuzguen con mayor eficiencia a los seres humanos aplicandcientíficamente las leyes férreas, sino una advertencia de que el Leviatán de la organización no debe engullir al individuo si no quiere firmar su sentencia inapelable.

REFERENCIAS

o