Información

Da Wikipedia, a enciclopedia libre.
Ir á navegación Ir á busca
Nota de desambiguación.svg Desambiguación : se buscas o xornal, consulta Información (xornal) .

A información é o conxunto de datos interrelacionados cos que se concreta e se comunica unha idea (ou feito). [1]

Os datos obxecto do mesmo pódense recoller nun arquivo ou nunha infraestrutura dedicada á súa xestión, como no caso dun sistema de información . É obxecto de estudo e aplicación en diversos sectores do coñecemento e da acción humana. Por exemplo, no campo técnico é obxecto de estudo da enxeñaría da información , no campo das ciencias sociais é obxecto de investigación das ciencias da comunicación e da socioloxía en xeral, con especial atención aos aspectos relacionados coa difusión dosmedios de comunicación demasas na sociedade da información actual (ou era da información ).

Etimoloxía

A palabra deriva do substantivo latino informatio (-nis) (do verbo informar , que significa "darlle forma á mente", "disciplinar", "instruír", "ensinar"). Xa en latín a palabra usábase para indicar un " concepto " ou unha " idea ", pero non está claro se esta palabra puido influír no desenvolvemento da palabra información .

Ademais, a palabra grega correspondente era "μορφή" ( morphè , da que a forma latina significa metátese ), ou "εἶδος" ( éidos , da que a idea latina), é dicir, "idea", "concepto" ou "forma", " imaxe "; a segunda palabra foi usada notoriamente no campo filosófico por Platón e Aristóteles para indicar a identidade ou esencia ideal de algo (ver Teoría das formas ). Eidos tamén pode asociarse con "pensamento", "afirmación" ou "concepto". [2]

Evolución conceptual

Co avance do coñecemento humano, o concepto de información evolucionou cada vez máis amplo e diferenciado: a información é en xeral calquera noticia ou historia , ademais calquera comunicación escrita ou oral contén información. Os datos dun arquivo son información, pero a configuración dos átomos dun gas tamén se pode considerar información. A información pódese medir como outras entidades físicas e sempre existiu, aínda que a súa importancia só se recoñeceu no século XX .

Por exemplo, o descubrimento fundamental da "dobre hélice" do ADN en 1953 por James Watson e Francis Crick sentou as bases biolóxicas para comprender a estrutura dos seres vivos desde o punto de vista da información . A dobre hélice está formada por dous filamentos acoplados enrolados sobre si mesmos para formar unha estrutura helicoidal tridimensional. Cada cadea pode remontarse a unha secuencia de ácidos nucleicos (adenina, citosina, guanina, timina). Para representalo úsase un alfabeto finito como nos ordenadores, cuaternario no canto de binario , onde as letras se escollen entre A, C, G e T, as iniciais dos catro compoñentes fundamentais. O ADN representa, polo tanto, o contido da información das funcionalidades e estrutura dos seres vivos.

Descrición

En xeral, a información ten valor xa que é potencialmente útil para o usuario para os seus múltiples fins: de feito, a información a miúdo contén coñecemento ou experiencia de feitos reais experimentados por outros temas e que poden ser útiles sen ter que esperar necesariamente a experimentar cada un deles. calquera situación dada. Dende este punto de vista, o útil concepto de información e a necesidade paralela de comunicar ou intercambiar información entre individuos naceu, na historia da humanidade , co procesamento da linguaxe pola mente humana e desenvolveuse coa posterior invención da escritura como medios para transmitir información á posteridade. Segundo esta perspectiva, a historia e a evolución da sociedade humana son o resultado da acumulación de coñecemento en forma de información. Por exemplo, a información contén coñecementos útiles para realizar unha actividade ou tarefa específica, o que o converte por exemplo nun recurso estratéxico na esfera económica da economía empresarial .

A información e o seu procesamento a través de ordenadores seguramente tiveron un grande impacto na nosa vida diaria actual. A importancia testemuña, por exemplo, os sistemas de protección ideados a través da criptografía e o valor comercial do intercambio de tecnoloxía. O uso adecuado da información tamén supón importantes problemas éticos, como a confidencialidade da información clínica que doutro xeito podería beneficiar ás compañías de seguros médicos e prexudicar aos pacientes.

A importancia e difusión da información na sociedade moderna é tal que a miúdo se denomina Sociedade da Información .

En diversos contextos

Outras definicións proveñen da tecnoloxía da información e da telemática :

  • No modelo de Shannon e Weaver , a información considérase unha parte integral do proceso de comunicación;
  • A teoría da información ten como obxectivo proporcionar métodos para comprimir a información producida por unha fonte na medida do posible, eliminando toda redundancia;
  • Na teoría de bases de datos (por exemplo no modelo relacional , pero non só), a información é unha relación entre dous datos. Fundamental dende este punto de vista é a distinción entre os datos (un número, unha data, unha palabra ...) e o significado que se pode dar a estes datos, relacionándoos con un ou varios datos ou representacións de conceptos. Polo tanto, nun ordenador, a información é contable e, dependendo do sistema de interpretación e representación, podemos distinguir entre información explícita, relativamente fácil de cuantificar (como a data de nacemento do señor Ross) e a información inferida, o número de que depende da capacidade de cálculo da información proporcionada ao sistema (por exemplo, a idade do señor Rossi, que se pode restar a data e data de nacemento de hoxe). Este é un exemplo de información inferida exacta, pero tamén hai métodos para inferir información que non é certa: por exemplo, un servizo de rede social pode establecer con certa precisión que dúas persoas que asistiron á mesma escola e teñen coñecementos en común saben uns aos outros, pero non poden dar certeza matemática respecto diso.

Informática

Os ordenadores , nacidos como simples calculadoras, convertéronse co paso do tempo en poderosas ferramentas para almacenar , procesar e analizar información. Por outra banda, a difusión de Internet como rede global puxo á disposición da humanidade unha masa de información nunca antes dispoñible. Na base de toda a información dun ordenador está o concepto de datos. Parando nos tipos básicos, temos esencialmente números e cadeas (secuencias finitas de caracteres). Estes datos deben estar relacionados entre si para ter significado; se, por outra banda, hai máis dunha relación válida posible, pódese xerar ambigüidade.

Matemáticas e lóxica

Por exemplo, 1492 é un número que por si só non significa nada: podería ser unha cantidade de mazás (se se correlaciona coa relación cantitativa co obxecto da mazá), o custo dun anel ou o ano no que Cristóbal Colón embarcou e descubriu América . A palabra "fútbol" pode ser un deporte, un elemento químico ou un golpe de pé. En xeral, as bases de datos que conteñen información relacionada cun campo de coñecemento específico non se ven afectadas polo problema da ambigüidade: nunha base de datos de química, a palabra calcio seguramente indicará o elemento químico. Nas bases de datos relacionais, os sistemas de táboas e relacións permiten organizar os datos para obter información sen ambigüidades: se a táboa "elementos_químicos" contén a palabra calcio, este será sen dúbida o elemento químico. A simple entrada dos datos na táboa "elementos_químicos" clasificou implicitamente a palabra "calcio", dándolle un significado, dado pola elección da táboa na que inserir un dato (a elección da táboa representa a transferencia de coñecemento dunha persoa á base de datos). Ademais, as bases de datos relacionais permiten a creación de relacións entre datos de diferentes táboas.

Ademais das relacións explícitas, pode haber relacións inferidas. Supoñamos que temos a táboa "fillo_de": se temos que Antonio é o fillo de Luigi (información 1) e que Luigi é o fillo de Nicola (información 2), entón podemos deducir que Nicola é o avó de Antonio (información 3). Polo tanto, é posible formalizar a relación e inserila na base de datos, obtendo a táboa grandfather_di sen ter que introducir outros datos:

 se A é o fillo de B e B é o fillo de C , entón C é o avó de A

ou, sempre que necesites coñecer aos netos / avós de alguén, analiza a relación fillo_de. E a información pode ser máis: analizando o sexo de B, poderase saber se C é avó paterno ou materno.

As bases de coñecemento deseñadas para a dedución son máis elásticas que as bases de datos relacionais tradicionais. Un exemplo son as ontoloxías .

As análises especialmente buscadas polo seu valor económico para fins comerciais son as que analizan grandes fluxos de información para descubrir tendencias que permitan deducir información que ten unha boa probabilidade de ser certa sobre usuarios individuais ou categorías de usuarios. Supoñendo que Antonio sempre mercou libros de ciencia ficción en internet, a publicidade que se lle mostrará pode amosar libros de ciencia ficción ou similares, o que probablemente lle interesará. Este tipo de análises poden proporcionar información ás veces sorprendentes: unha cadea de supermercados nun país anglosaxón descubriría, ao analizar os recibos, algo doutro xeito difícil de imaxinar: as persoas que mercaban cueiros adoitaban mercar máis cervexa que outras, polo que poñer o máis caro a cervexa non se afastaría dos cueiros, podería aumentar as vendas. De feito, as persoas que tiñan nenos pequenos pasaban máis tardes na casa vendo a televisión bebendo cervexa, sen poder ir aos clubes cos amigos. O exemplo da asociación entre cueiros e cervexa úsase a miúdo nos cursos universitarios de minería de datos ; non obstante, cómpre ter en conta que non está claro cal é a cadea de supermercados en cuestión e que o exemplo, aínda que é válido con fins educativos, podería inventarse.

Aspectos técnicos

A información xeralmente está asociada a sinais , que poden ser transmitidos por un sistema de telecomunicacións e almacenarse en soportes de almacenamento.

A medición

Segundo a teoría da información nunha comunicación, que se produce a través dun determinado alfabeto de símbolos, a información está asociada a cada símbolo transmitido e defínese como a redución da incerteza que podería ter sido a priori sobre o símbolo transmitido .

En particular, a cantidade de información unida a un símbolo defínese como


onde está é a probabilidade de transmisión dese símbolo. A cantidade de información asociada a un símbolo mídese en bits . A cantidade de información así definida é unha variable aleatoria discreta, cuxo valor medio, normalmente referido á fonte de símbolos, chámase entropía da fonte, medida en bits / símbolo. A velocidade de información dunha fonte, que non coincide coa frecuencia de emisión dos símbolos, xa que non é seguro que cada símbolo leve un pouco de información "útil", é o produto da entropía dos símbolos emitidos pola fonte. para a emisión de frecuencia destes símbolos (velocidade de sinalización). O anterior pódese xeneralizar tendo en conta que non é absolutamente obrigatorio que cada símbolo se codifique de xeito binario (aínda que isto é o que ocorre con máis frecuencia). De aí a información ligada a un símbolo codificado en base é por definición igual a


con igual á probabilidade de transmisión asociada a ese símbolo. A entropía da fonte é por definición igual á suma, estendida a todos os símbolos da fonte, dos produtos entre a probabilidade de cada símbolo e o seu contido de información. En casos especiais onde sexa 10 a entropía da fonte mídese en Hartley , se é así é igual ao número de Euler mídese en nat . Da fórmula pódese deducir que se a probabilidade Pi de transmitir o símbolo é igual a un, a cantidade de información asociada é cero; viceversa se no caso límite ideal de Pi = 0 a cantidade de información sería infinita. Isto significa basicamente que canto máis probable é un símbolo, menos información leva e viceversa: un sinal constante ou igual a si mesmo non leva ningunha información nova xa que sempre é o mesmo: entón dise que a información viaxa na forma de Innovación . Os sinais que levan información non son, polo tanto, sinais deterministas, senón procesos estocásticos . Na teoría dos sinais e a transmisión, esta información confiada a procesos aleatorios é a modulación (en amplitude, fase ou frecuencia) de portadores físicos normalmente sinusoidais que logo traducen o sinal de información en banda.

A codificación da información

A codificación da información consiste en transformar a información xenérica en información que un dispositivo poida comprender ou que sexa adecuada para o seu procesamento posterior. O primeiro problema a afrontar nos procesos de procesamento de información é a representación da información. A información consiste na recepción dunha mensaxe entre un conxunto de posibles mensaxes. A definición exacta é que a información represéntase mediante un número finito de símbolos fiables e facilmente distinguibles.

Dentro dos equipos dixitais, a información está representada por niveis de tensión ou por magnetización de dispositivos adecuados. Os requisitos de fiabilidade requiren que estes símbolos, para unha maior eficiencia, sexan dous ou como máximo tres: no primeiro caso só hai 0 e 1, correspondentes a 2 niveis de tensión (estándar TTL: 0/5 V; estándar RS-232: + 12 / -12 V) que forman a numeración binaria; no segundo caso pode haber unha terceira etapa, indicada como HiZ (alta impedancia), que representa un nivel indeterminado, causado por exemplo polo fío "desconectado".

A extensión dos fluxos

O concepto de información transportada nunha canle de comunicación pódese poñer en analoxía co de fluxo en hidrodinámica , mentres que a velocidade de fluxo representa a velocidade de propagación do sinal que leva a información na liña. A este respecto, cada liña de transmisión ou medio de transmisión ten a súa propia cantidade máxima de información transportable, expresada pola velocidade de transmisión da propia liña segundo o teorema de Shannon .

A relación coa privacidade

Icona de lupa mgx2.svg O mesmo tema en detalle: privacidade .

O sector da información é un sector afectado por unha evolución continua e por unha importante importancia social. Basta pensar na cantidade e calidade de información que posúen as empresas en forma de datos persoais , hábitos e consumo dos clientes. A protección de datos persoais parece ser un tema de controversia entre aqueles que desexan un intercambio gratuíto de información e aqueles que desexan limitacións mediante a protección e control. Ademais de protexer os datos persoais e sensibles de clientes, provedores e empregados, as empresas precisan protexer a propiedade intelectual, as patentes e o coñecemento interno, en xeral información confidencial (cuestión que nada ten que ver coa privacidade).

Nota

  1. Giuliano Vigini, Glosario de biblioteconomía e ciencias da información , publicación bibliográfica, Milán 1985, p. 62.
  2. ^ O termo orixinalmente significaba "o que parece aos ollos", derivado da raíz indoeuropea * weid- / wid- / woid-, "ver" (cf. vídeo latino ). Non obstante, máis tarde adquiriu unha gran multiplicidade de significados (por exemplo, en Isócrates indica o "modelo teórico" dunha oración ).

Bibliografía

Elementos relacionados

Outros proxectos

Ligazóns externas

Control da autoridade Thesaurus BNCF 7988 · LCCN (EN) sh85029027 · GND (DE) 4026899-8