Teoría Matemática de la Informacón de Shannon y Weaver
Introducción
La llamada Teoría de la información también se llama “Teoría matemática de la comunicación” o “Teoría Matemática de la información”, Shannon y Weaver redactaron esta teoría en los años 50. Para comprender la Teoría de la información primero se analiza o entiende el concepto de Información. López afirmó en el año 2010 que para entender dicho concepto hay que remontarnos hasta el siglo XXI donde por primera vez la información empezó a tener notoriedad gracias a la Ilustración, Renacimiento entre otros acontecimientos importantes en la historia.
Pero, no es hasta que ocurrió la Revolución Industrial donde esa época se empezó a llamar “La Sociedad de la Información” porque la riqueza ya no era por la posesión de bienes sino por la posesión de basta información. Gracias a lo mencionado podemos discernir que el concepto “Información” esta desde tiempos antiguos hasta la fecha (aportes a la ciencia, discusiones sociales o filosóficas, etc.). La información esta hasta en lo más grande o lo más diminuto, en consecuencia, no se ha podido sacar una única definición.
Desarrollo
Las definiciones de información están en diferentes ámbitos, también en diferentes enfoques podría referirse a una definición de información sobre la base de la medicina, biología o lingüística. Por eso todas esas definiciones se unieron en teorías científicas que usan de eje central de investigación a la información y por primera vez se habló de la palabra “Teoría de Información”. Terminando dicha anotación podemos pasar a entender con más facilidad sobre la Teoría de la Información (TI), donde lo inicio Shannon mediante su artículo “Una teoría de la Comunicación”
Se planteó una manera más eficaz de mejorar los “Múltiples Canales de Comunicación” como pueden saber, esa época hablar con una persona y que otra se entrometa o que te vigilen tus llamadas se hizo muy famoso por eso el autor quería crear un método por el cual remitía información a un canal, calculando su aptitud de información para lograr traspasar la información óptimamente. Gracias a ese aporte y al año siguiente fuera ayudado por Weaver terminando dicho artículo con el nombre “Teoría Matemática de la Comunicación”,
Shannon paso a ser el padre de la Teoría de la Información donde plantearon que a través del origen de información se envía un anuncio al transmisor a través de una señal, pero en un punto puede intervenir un ruido interfiriendo dicha señal, esa señal sale del canal y pasa a un recibidor que consecuentemente codifica el anuncio y se pasa a un destino o persona. Así la persona que reciba el anuncio no tendrá complicaciones a menos que no sepa codificar el anuncio y puede entender que haya dos definiciones en dicho código.
Esto comenzó cuando ya acababa la 2.ª Gran Guerra en el 40. La conocida Teoría de la Información comenzó por Shannon por un artículo divulgado en el Bell STJ en el 48, Fue puesto como título “Teoría matemática de la comunicación”. En estos años lo que se buscaba era de encontrar el método más rápido de usar los medios de comunicación, emitiendo una gran dosis de información por un medio y lo que averiguaba era el envío y llegada óptima de los anuncios.
Esta teoría fue hecha por los aportes comenzados por la primera década del siglo XX por Markovi, quien Hartley en el año 27 le siguió su trabajo, y se le conoce como iniciador del lenguaje binario. Elwood Shannon en conjunto con Warren Weaver, contribuyo con sus aportes para dar las bases a la Teoría Matemática de la Comunicación de 1949, donde hoy en día es conocido como “La Teoría de la Información”. Un apartado central es la resistencia a la deformación que estimula la perturbación, donde pone en juego la comodidad de codificación y descodificación.
Así también la rapidez de transmisión, donde se dice que el anuncio tiene diferentes puntos de vista, y el receptor es el que le da dirección al que se le atribuye al aviso, siempre que haya un código igualitario en los 2 puntos. La Teoría de la información no es global y tiene ciertas fronteras, como es la aceptación del significado del código. Si la selección del anuncio plantea únicamente entre dos variables, la Teoría de la información da a entender que el valor de la información es uno. Aquí se da el concepto de bit que es la magnitud de información. Para que el interés de la información sea igual a un bit, las alternativas dadas deben estar todas libres y ser igualmente posibles.
Es importante que el origen de información no carece del mismo grado de independencia para seleccionar las posibilidades de un conjunto de ellas o si se halla bajo algún tipo de dominio que le induce a una elección. Aunque en la práctica no todos los eventos son iguales, por lo tanto, forma el procedimiento estocástico llamado Markov. El procedimiento indica que la cadena de símbolos está puesta que cualquier sucesión de aquella cadena se representa en su totalidad.
Componentes de la Teoría de la Información
El emisor: es todo aquello que emite un mensaje, por ejemplo, un emisor puede ser una computadora y lo que produce son anuncios, mensajes. Hay 2 tipos de emisores, aleatorias y estructuradas. Un emisor es aleatorio cuando no se puede predecir cuál será su próximo mensaje o anuncio. Un emisor es estructurado cuando es redundante.
Mensaje: Es un grupo de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier cosa que tenga una representación binaria puede considerarse un mensaje. El concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero debido a que tratamos con información digital nos referiremos casi siempre a mensajes binarios.
Señal: Es un signo, un gesto u otro tipo de informe o aviso de algo. La señal sustituye, por lo tanto, a la palabra escrita o al lenguaje. Código:es el lenguaje con que se comunica las 2 partes que son el emisor y el receptor. La información: en un mensaje es la dosis de bits que se ordenan como mínimo para dar el mensaje. Supongamos que estamos leyendo un mensaje y hemos leído ‘cadena de c’; la probabilidad de que el mensaje continúe con ‘caracteres’ es muy alta.
Transmisor:El recurso que transforma el mensaje en una señal que es enviada por el canal al receptor. Canal: medio por el cual lleva las señales en el espacio. Receptor: el que recibe un mensaje (persona o aparato). Destino:El destinatario de mi mensaje. Es quien determina la fidelidad del mensaje. Ruido:Elementos que no fueron proporcionados por la fuente y se dan al mensaje en el canal.
La Teoría de la Información se encuentra aún actualmente en día en relación con una de las tecnologías en auge. Desde el punto de vista general, Internet representa unos significativos beneficios latentes, ya que promete oportunidades sin precedentes para dar poder a los individuos y conectarlos con fuentes cada vez más opulentas de información. Internet fue creado a partir de un proyecto del departamento de defensa de los Estados Unidos llamado DARPANET iniciado en el año 68 y su propósito primordial era la investigación y desarrollo de protocolos de comunicación para redes de área amplia.
Para ligar redes de transmisión de paquetes de diferentes tipos capaces de resistir las condiciones de operación más difíciles, y continuar funcionando aún con la pérdida de una parte de la red. El enorme crecimiento de Internet se debe en parte a que es una red basada en apoyo gubernamental de cada país que forma parte de Internet, lo que da en sí un servicio casi gratuito. A principios de 1996, comenzó a darse un crecimiento sensacional de las compañías con propósitos comerciales en Internet, dando así origen a una nueva era en el crecimiento de la red.
Conclusión
Descrito a grandes rasgos, TCP/IP mete en paquetes la información que se quiere enviar y la saca de los paquetes para utilizarla cuando se recibe. Estos paquetes pueden compararse con sobres de correo; TCP/IP guarda la información, cierra el sobre y en la parte exterior pone la dirección a la cual va dirigida y la dirección de quien la envía. Mediante este sistema, los paquetes se envían a través de la red hasta que llegan al destino deseado.
Una vez ahí, la computadora de destino, quita el sobre y procesa la información; en caso de ser necesario envía una, respuesta a la computadora de origen usando el mismo procedimiento. Cada máquina que está conectada a Internet tiene una directiva única; esto hace que la información que se envía no errónea en el destino. Realmente, las computadoras utilizan las directivas numéricas para mandar paquetes.
Bibliografía
Teoría de la Información de Claude E. Shannon
Teoría matemática de la información