E-LOGOS 2004, 11(1):1-22

Informace, ontologie, entropie

Ján Pavlík
Department of Philosophy, University of Economics, Prague, Czech Republic

Třebaže matematická teorie informace vznikla v souvislosti s problematikou technického přenosu sdělení (přičemž přenášená informace se mohla skládat ze zcela nesmyslného řetězce nesmyslných slov), lze ukázat, že její hlavní principy nejsou není natolik vzdáleny logické struktuře předvědeckého rozumění v rámci tzv. přirozeného světa, jak by se mohlo zdát. Tak třeba Ashbyho teorie variety je kompatibilní se strukturou definice v klasické logice. V klasické (Platónově) ontologii, která reflektuje strukturu předvědeckého rozumění, se dokonce uskutečnil první pokus o kvantifikaci množství informace obsažené v rodových a druhových podstatách, a sice na bázi apriorního poznání nejvyššího rodu. Také Shannonovu formuli pro kvantifikaci informace lze interpretovat ontologicky, v tomto případě však jde o ontologii slučující empiricistický koncept vzájemně nezávislých elementů zkušenosti s kombinatorickým přístupem prvně nastíněným u R. Lulla. V intencích této interpretace je možné vyjádřit množství informace v závislosti na počtu elementárních rozlišení, což odpovídá Batesonově definici informace. Ontologická interpretace základních principů teorie informace ruší "odcizení" mezi touto teorií a předvědeckým způsobem orientace člověka ve světe, umožňuje vyhnout se jak subjektivismu, tak objektivismu v pojetí informace a vede k vymezení informace jakožto potenciální negentropie.

In spite of the fact that the mathematical theory of information was formed in connection with the problems of technical transmission of data (when data could consist of fully nonsensical string of nonsensical words), it is possible to show that its main principles are not so distant from the logical structure of pre-scientific (comon sense) understanding, as applied by people in the frame of the Lebenswelt, as it could seem. E. g., Ashby's theory of variety is compatible with the structure of definition in classical logic. Moreover, the first attempt at the quantification of information took place in classical (Platonic) ontology which was a reflection of the structure of pre-scientific understanding; starting from his conception of the ANAMNESIS, according to which we can have an a priori cognition of summum genus, he tried to determine the quantity of information (measured by differences) as being comprehended in generic essences and species. Shannon's formula for the quantification of information can be interpreted ontologically, too, but the ontology which is adequate to this combines an empiricist concept of mutually independent elements of experience with the combinatorial approach first outlined by R. Lullus. In accordance with this ontological interpretation there exists a possibility to express the quantity of information as a function of the quantity of elementary differences (which is in harmony with Bateson's definition of information). The ontological interpretation of the basic principles of the theory of information eliminates the "alienation" between it and man's pre-scientific (common sense) orientation in the world, enables to avoid both subjectivist and objectivist misconceptions of the status of information, and, finally, leads to the identification of information with potential negentropy.

Prepublished online: January 1, 2004; Published: June 1, 2004  Show citation

ACS AIP APA ASA Harvard Chicago Chicago Notes IEEE ISO690 MLA NLM Turabian Vancouver
Pavlík, J. (2004). Informace, ontologie, entropie. E-LOGOS11(1), 1-22
Download citation