 |
Recuerdo y profesión de fe en la información científica, esta vista muestra un rincón del primer patio del Centro de Documentación Científica y Técnica de México. [ Foto: CICH-UNAM.] (Pérez-Vitoria, 1982) |
14El autor Lasso de la Vega cometió un error en su texto con la dimensión de los nanosegundos: no son millonésimas de segundo. En realidad, un nanosegundo es una mil millonésima de segundo, o 10** -9 segundos o 0.000000001 segundos [regresar]
15De acuerdo con Perales, Dreyfus dividió a la informática originalmente en: 1) informática formal o analítica (algoritmos); 2) informática sistemática y lógica (estructuras de sistemas); 3) informática tecnológica (hardware); 4) informática metodológica (software o métodos de programación), y 5) informática aplicada (sectores o campos donde puede aplicarse). [regresar]
16La doctora Perales, quien fuese directora del Anuario de Bibliotecología y Archivología durante las décadas de los sesenta y setenta, cambió el nombre del anuario en 1971 a Anuario de Bibliotecología, Archivología e Informática, partiendo de ese concepto original de informática. [regresar]
17En 1935, el presidente Lázaro Cárdenas creó el Consejo Nacional de Educación Superior y de la Investigación Científica, que funcionó hasta 1938. El siguiente presidente, Manuel Ávila Camacho, creó en 1942 la Comisión Impulsora y Coordinadora de la Investigación Científica, sustituida en 1950 por el “Instituto Nacional de Investigación Científica”, el cual es reformado en 1961. Este Instituto recomendó en 1970 la creación del “Consejo Nacional de Ciencia y Tecnología” (Conacyt), el cual lo sustituyó. [regresar]
18Infotec se creó en 1974 como fideicomiso del Conacyt en Nacional Financiera (Nafinsa). [regresar]
5.- Los inicios de la automatización de bibliotecas en los sesenta
[…]cualquier concepto de biblioteca que comience con libros en estanterías seguramente será un problema.
Joseph Licklider, Libraries of the Future.
Los dos grandes problemas mencionados—producción de tarjetas y documentación científica masiva— eran ya tan significativos para los sistemas bibliotecarios de cierto tamaño en la segunda mitad del siglo XX, que en 1963 la Biblioteca del Congreso de Estados Unidos, la National Science Foundation y el Council on Library Resources (CLR) organizaron una conferencia expresamente para tratar los temas emergentes de la eventual automatización de bibliotecas: “Libraries and Automation”. Las memorias de este evento son sin duda el documento más representativo de los problemas, las discusiones, los debates y las expectativas de principios de los sesenta acerca del posible uso de la tecnología de las computadoras en las bibliotecas de acuerdo al estado del arte de la época (Conference on Libraries and Automation 1964).
La lectura de ese documento muestra elementos por demás ilustrativos: en una de sus ponencias, todavía se pondera si el desarrollo futuro de la microfilmación superaría al desarrollo futuro del almacenamiento magnético. Tómese en cuenta que en ese entonces, los microformatos ya estaban muy desarrollados, y una sencilla microficha de 4 × 6 pulgadas cuyo costo de producción era menos de un dólar podía contener el equivalente de hasta 1.8 Megabytes; su lector costaba unos cuatrocientos dólares. Una cinta magnética de una capacidad equivalente costaba treinta dólares —su unidad lectora costaba casi diez mil dólares— y un disco duro de esa capacidad costaba quince mil dólares. Muchos bibliotecarios pensaban todavía que el futuro del almacenamiento masivo estaba en los microformatos, no en el almacenamiento magnético (Conference on Libraries and automation 1964, 67-70).
En otra ponencia de este evento, se trata el polémico tema de las impresoras de computadora de la época que, siendo muy rápidas, solo imprimían en mayúsculas. Además, esas impresoras solo tenían un tipo de letra, no tenían cursivas ni negritas, y usaban únicamente tinta negra (Conference on Libraries and Automation 1964, 54). Esto no era una simple deficiencia técnica, había razones de fondo atrás de ello.
Desde un inicio, las computadoras electrónicas se basaron en el código binario. Por su misma naturaleza electrónica, los números se debían representar en su interior con pulsos eléctricos. Si se hubiese usado el sistema decimal para construirlas, hubiese sido necesario integrar internamente nueve generadores de pulsos diferentes; digamos, un milivoltio para representar el número “1”, dos milivoltios para el número “2”, y así hasta nueve milivoltios para el número “9”. Evidentemente, la ausencia de corriente, cero milivoltios, representaría al número “0”. Todo esto hubiese resultado muy complicado de construir. Para simplificar las máquinas, se decidió que los números podían ser representados internamente con el código binario, ya que éste solo requiere de dos números, unos y ceros, “hay corriente” o “no hay corriente”. Por esta razón, estos “unos” y “ceros” se denominaron “bit”, abreviatura de “binary digit” o “dígito binario”. Un solo generador de voltaje en el interior de la computadora bastaba para representar todos los números, en lugar de nueve, lo cual simplificó enormemente su construcción.
Poco después, cuando hubo que representar letras y caracteres de puntuación, se decidió crear códigos de representación basados también en el sistema binario; ello mantendría simples las máquinas en su interior con un único generador de pulsos eléctricos. Surgieron así los primeros códigos alfanuméricos. Originalmente se usó uno muy sencillo, el 12-Hollerith, proveniente de las primitivas máquinas de ese inventor. Poco después se introdujo el código Binary Coded Decimal Interchange Code (BCDIC) o Código de Intercambio Decimal Codificado en Binario, el cual unía seis bits; esto es, seis unos o ceros, para formar una sola unidad. A este conjunto considerado como una sola entidad, se le denominó “byte” o carácter. Una cierta combinación arbitraria de unos y ceros representaría cierta letra o carácter; había una combinación diferente para cada una hasta cubrir todas las letras del alfabeto. En un conjunto de seis bits, se pueden tener 2**6 combinaciones diferentes de ellos; esto es 2 × 2 × 2 × 2 × 2 × 2 = 64 combinaciones, lo cual implica que este código podía representar 64 caracteres diferentes. El alfabeto inglés tiene 26 letras; sumándole los diez dígitos decimales más los diez signos de puntuación básicos incluyendo el carácter “espacio”, se ocupan 48 combinaciones diferentes. A éstos hay que agregar algunos adicionales llamados “caracteres de control” como el carriage return o enter y el line feed o avance de línea, representados también por una combinación de bits; en total, cerca de 56 representaciones de las 64 posibles. Bajo ese concepto, las letras mayúsculas estaban ahí, pero representar también minúsculas hubiese requerido otras veintiséis combinaciones distintas que, como puede observarse, no alcanzaban. Hubo otras variantes de códigos elaboradas por parte de diversos fabricantes de computadoras, pero todas bajo el mismo principio.
Las computadoras de la primera época estaban hechas para tareas que requerían una impresión alfanumérica modesta; los textos impresos solo con mayúsculas eran aceptables en un recibo o una póliza. La memoria era escasa y cara, por lo que buscaba optimizarse usando el mínimo de bits. Las impresoras de ese entonces, en consecuencia, solo imprimían esos 48 caracteres. Los demás no existían. Por esta razón, el problema de la construcción de una impresora con minúsculas no era solo de tipo técnico o mecánico. Internamente, las computadoras no podían representar las minúsculas en su código. Aparte de los bibliotecarios, a nadie le preocupaba ese detalle en las primeras décadas.
Читать дальше