El procesamiento de la información llevó al surgimiento de la computadora electrónica, la cual dio inicio a la era de la informática, a partir de 1945.La primera computadora electrónica fue probablemente la ENIAC, construída por el ejército estadounidense entre 1942 y 1945 en la Universidad de Pensilvania.
Para Wiener existe un sistema análogo y paralelo de recepción y procesamiento de información entre el individuo y la computadora; existe un paralelismo y una analogía entre el funcionamiento físico del individuo y el de las máquinas de comunicación. Ambos buscan dominar la entropía (como tendencia a la desorganización, a la indiferenciación) a través de la retroacción. En ambos existe un mecanismo de recepción de información del ambiente externo a niveles muy bajos de energía, haciéndola accesible. Sin embargo, las informaciones son acogidas no en sus estado puro, sino a través de medios internos de transformación. Los sistemas nerviosos del hombre y del animal funcionan como sistemas de computación y contienen neuronas o células nerviosas que funcionan como relés. Cada nervio tiene dos estados típicos del relé: disparo y reposo. La información es pasada o retenida. También la computadora es un sistema que lee, registra y procesa información, quedando los resultados de ese procesamiento en una memoria, accesible por dispositivos de entrada y salida. De un modo simplificado, la computadora está constituida por una unidad central de procesamiento (CPU),una memoria y dispositivos de entrada y salida.
Un autor relevante en el ámbito de la moderna teoría de la información es Claude Shannon; la obra en la que él, juntamente con Weaver, estableció esta teoría, lleva por título ´´La teoría matemática de la comunicación´´ y data de 1948.En ella se desarrolla un sistema lógico con el que se puede describir, unificar y cuantificar el proceso de transmisión de mensajes. Punto de partida para sus estudios ha sido la cuestión de cómo opera realmente el proceso de transmisión de noticias. Además, el matemático estadounidense se ha ocupado intensamente de las ´´maquinas de aprender´´(´´Ratón en el Laberinto´´, computadora- ajedrez) y de la música por ordenador. En 1953,Shannon clasificó los tipos más importantes de posibles autómatas ejecutantes de piezas musicales.
El concepto de información se halla íntimamente ligado a las nociones de selección y escogencia. Cuanto más frecuente sea una señal, menos informa, pues su ocurrencia puede ser parte de otros mensajes. La escogencia más simple entre dos posibilidades es representada por la alternativa si/no o 1/0 o abierto/cerrado. La cantidad de información producida por esa escogencia puede ser considerada como una unidad básica que es denominada ´´bit´´ de información (´´bit´´ es una palabra formada por el prefijo bi= binary y el sufijo t= digit;binary digit = número binario).La medida de información se fundamenta en la posibilidad cuantitativa de comparar aquellos dos estados: uno, en el cual el sistema todavía no dispone de información, y otro, en el cual el sistema ya tuvo acceso a ella. Frente a su extrema simplicidad, el sistema binario fue elegido como sistema básico de referencia en los modelos matemáticos de los sistemas de comunicaciones, por ejemplo, para las computadoras.
No hay comentarios:
Publicar un comentario