Los hispanohablantes del lado americano del Atlántico sentimos, en general, una gran molestia o simplemente extrañeza, al ver u oír la palabra ordenador para referirse a esa omnipresente máquina que todos por aquí llamamos computadora, o computador en algunos casos. El porqué de esta diferencia es el tema que trataremos de seguidas, basados principalmente en un artículo de profesor de la Universidad Complutense de Madrid Antonio Vaquero Sánchez1, y un pequeño libro escrito por el francés Claude Bellavoine2 a finales de los años 60's. Pensamos que las diferencias para denominar diversos objetos de uso diario entre las numerosas regiones que tienen el idioma español o castellano como medio de comunicación oral y escrita no constituyen en sí mismo ninguna anomalía, y no se pueden considerar como peligrosas para la conservación y buen uso del mismo. Así tenemos que en algunos países se usa cacerola para referirse a los objetos que en otros sitios se denominan ollas, y lo mismo ocurre con carro y coche. Igualmente pasa con los nombres de animales y vegetales, como en el caso de gambas y camarones, aguacate y palta, piña y ananás, merey y marañón, etc. Comencemos entonces con fragmentos del artículo del profesor Vaquero Sánchez titulado "Uso de la palabra Ordenador": "(…) En España el término ordenador está muy extendido para designar a la máquina por excelencia de la Informática. Hay una minoría, en general universitaria, que usa indistintamente los términos computadora (o computador) y ordenador. Mucho menos somos los que sólo usamos el término computadora. Pero solamente en España se usa la palabra ordenador, que es absolutamente desconocida en América. La comunidad americana de habla española sólo usa la palabra computador y también computadora, aunque esta última en menor medida. "(…) Antes que ordenador, en España se usó la palabra calculadora. Calculator aparece antes que computer en la literatura germinal de las computadoras. Así, la máquina desarrollada en 1944, bajo la dirección del Profesor Aiken en la Universidad de Harvard, era referida como Mark I o Automatic Sequence Calculator. El profesor García Santesmases pasó un tiempo trabajando con el grupo de las Marks. Por él se introdujo en nuestro país la palabra calculadora, para designar lo que mucho después se llamaría ordenador. Calculadora fue pues el primer término con que se conocieron estas máquinas en España, término que se usó extensamente en la década de los 60, como se comprueba más adelante, e incluso llega a la de los 70. Desde entonces se aplica sólo a las máquinas de mano con teclas numéricas y funcionales. "Vamos a rastrear ahora el origen de la palabra ordenador. Trasladémonos a Francia. Hacia 1962 aparecen dos palabras nuevas en los ambientes universitarios franceses: Informatique y Ordinateur. Ambas tienen una rápida difusión y aceptación en el país vecino. Por ejemplo en 1963 ya existía en la Facultad de Ciencias de la Universidad de Toulouse un Laboratoire d'Informatique. En España se adoptó rápidamente la palabra Informática, pero esa rapidez no se dio con la palabra ordenador. Prueba de ello es la traducción del libro Vocabulary of Infomation Processing, (…) computer se tradujo por calculadora. "La palabra ordenador aparece escrita por primera vez en un diccionario de Informática en español en 1972. Es el Diccionario-Glosario de Proceso de Datos Inglés-Español, IBM, 1972. La adopción del galicismo tiene un éxito fulgurante, directamente proporcional al crecimiento de usuarios de Informática, influidos por los profesionales comerciales. El origen ya lo conocemos. Ahora bien, vamos al fondo. ¿Qué significa ordinateur? No se debe entrar al trapo de los que defienden el uso de la palabra ordenador porque éste realiza ordenaciones (operaciones de ordenación). Puede hacer más, muchísimo más, que ordenar elementos ordenables. Admitir esa denominación por esa causa sería como admitir la designación del todo por una parte solamente. "Tampoco es válido el argumento basado en la acepción de orden como instrucción. Ordinateur viene definido en francés así "... qui émite ordres". En definitiva, quien da órdenes, no quien las recibe. Por tanto, el uso de la palabra ordenador es una incorrección semántica. (…) Lo dicen los propios franceses. Los mismos que contribuyeron a la creación, difusión y aceptación del término. "¿Qué hacemos aquí sobre la utilización de los diversos términos? (…) Los hispanoparlantes de otros continentes (…) siempre usan computador/a. Y no van a cambiar. Tienen la razón de la fuerza numérica, pues son casi 10 veces más que nosotros. Y nosotros, los españoles, carecemos de argumentos lingüísticos sólidos para convencerles. ¿Qué podemos hacer aquí? Sería más lógico que, si hay que hacer algún cambio, lo hiciésemos nosotros. Deberíamos hacerlo en aras de la cohesión de nuestra lengua. (…) En cuanto al género, éste carece de importancia. Un computador (masculino) es un sistema (masculino) y una computadora (femenino) es una máquina (femenino). Pero es curioso que sólo se diga ordenador y no ordenadora. Esta curiosidad queda para los estudiosos de los fenómenos sociolingüísticos." Ahora bien, ¿por qué los franceses utilizan el término ordenador (ordinateur)? La respuesta la hallamos en el libro de Bellavoine y es a mi parecer francamente absurda. Veamos entonces el origen de la palabra ordenador (Las negritas y cursivas son nuestras): "En 1954, la Compañía IBM de Francia tropezó con el problema de traducir la denominación "Electronic Data Processing Machine" (EDPM). (…) No quería usar el término "Computadora", aunque los primeros trabajos eran sobre todo de índole científica, porque esa palabra hubiera limitado las posibilidades de utilización y, por consiguiente, de venta de esa máquina y no expresaba en forma adecuada la innovación técnica. La expresión "Machines électroniques a données processionnelles" ("Máquinas Electrónicas procesadoras de datos"), en la que se había pensado por un momento, sonaba extraña. En efecto, más tarde, la palabra inglesa "data" se tradujo por "datos" y luego por "información", mientras que "Processing" se convirtió en "procesamiento" y también en "tratamiento"; esto dio lugar a nuestra definición. Los estadounidenses, a su vez, inventaron un término más sencillo, el de computadora. La IBM de Francia se dirigió entonces al profesor Jacques Perret, de la Facultad de Letras de París, y éste propuso que se volviera a introducir una palabra teológica, ¡caída en desuso desde hacía 600 años¡, la palabra "Ordenador". Dios era el gran Ordenador del Universo, es decir, el que ordena las cosas de acuerdo con un plan. Modestamente, el término se juzgaba digno de las nuevas máquinas cuyo porvenir se vislumbraba. La definición se aplicó, pues, a las nuevas EDPM, capaces de ordenar informaciones dispersas en función de un objetivo preciso." Como diría un francés: "Mon Dieu!" En un foro4 sobre el tema un ingeniero de sistemas español, cuyo nombre lamentablemente no aparece, dijo lo siguiente: "(…) Efectivamente, el desafortunado término de "ordenador" (copiado sin criterio de los franceses) se usó por primera vez en España a principios de los 70, pero no fue sino hasta los 80 que se popularizó, con las PCs. Hasta ese momento todos decíamos "Computadora". (…) La carrera que yo estudié se llamaba oficialmente en casi todas la Universidades españolas "Ciencias de la Computación", y ese nombre aún estaba en uso hasta no hace tanto en varias universidades. (…) Este es un término que nos viene del latín, y su raíz está en nuestro vocabulario desde hace siglos. Las Computadoras, es decir las máquinas de cómputo, no hacen muchas cosas; sólo hacen una cosa: computar ceros y unos. (…) En definitiva, la Academia de la Lengua en España, tradicionalmente compuesta por personas muy influidas por la cultura francesa y en aquellos años con escasísimos conocimientos técnicos, optaron acríticamente por separarse de lo que era una práctica extendida y natural en nuestro idioma, decir "Computadora". Aún conservo mis primeros libros editados e impresos en España donde sólo se usaba ese término." Efectivamente, creo que la clave de todo este asunto es que hablamos de una máquina (o sistema) que es capaz de procesar muchísimos tipos de datos, como números, textos, gráficos, fotografías y videos, entre otros, pero a la larga todo su trabajo se reduce a computar ceros y unos, como dice nuestro anónimo amigo español. Así se trate de un video-juego, una aplicación ofimática, un navegador de Internet, lo que sea que se ejecute en una computadora será computable.
domingo, 4 de noviembre de 2007
Ordenador o Computadora
Publicado por neriovf en 15:32 1 comentarios
Etiquetas: Estándares
jueves, 18 de octubre de 2007
Charles Babbage – Padre de la Computación
Charles Babbage, nacido el 26 de diciembre de 1791 en Devonshire, Inglaterra, fue uno de los dos niños sobrevivientes de Benjamín Babbage, banquero, y Beatriz Plumleigh Teapen. Siendo un niño débil y enfermizo, el pequeño Charles padeció de una severa fiebre, que hizo que sus padres temieran por su vida y, buscando su recuperación, decidieron enviarlo a Teignmouth por un tiempo, lo que ha ocasionado confusiones sobre su lugar de nacimiento en algunos de sus biógrafos.
En octubre de 1810 Babbage ingresó al Trinity College en Cambridge donde estudió matemáticas y química. Obtuvo su licenciatura en matemáticas en 1814, graduándose como el primero en su clase, y posteriormente ingresó a la maestría en matemáticas a Cambridge, de donde se graduó en 1817. En 1816 fue elegido miembro de la Royal Society donde jugó un papel preponderante en la fundación de la Sociedad Astronómica Real en 1820, y ya en 1828 ingresó en su universidad como profesor de Matemáticas.
Se dice que durante sus años universitarios, Babbage se mostró un tanto decepcionado al descubrir que las matemáticas de Newton, que había muerto 200 años antes, seguían vigentes en Cambridge, sin mayor evolución, e ignorando todos los avances que se habían dado en diversas partes del mundo. Babbage se convenció de que sus conocimientos de matemáticas eran superiores a los de sus maestros, y decidió fundar la Sociedad Analítica, junto con H.F.W. Herschel y George Peacock, con el propósito de renovar la enseñanza de las matemáticas en Inglaterra. Fue precisamente durante una de las reuniones de la Sociedad Analítica en la que se cuenta que Babbage estaba distraído contemplando una tabla de logaritmos que se encontraba frente a él y alguien se le acercó a preguntarle: "Bien, Babbage, ¿en qué sueñas?", a lo que él respondió, mientras señalaba la tabla: "Creo que todas estas tablas podrían ser calculadas por una máquina". Babbage había constatado que muchos de los cálculos consistían en operaciones que había que repetir de manera regular, y desde este punto de vista especuló que debería ser posible diseñar una máquina calculadora que pudiera hacer estas operaciones de forma automática.
La carrera de Babbage como inventor y como autor fue muy prolífica. Dentro de sus inventos más destacados se encuentra el dinamómetro, las tarifas postales uniformes, los atrapa-vacas motorizados, las luces ocultas de los faros, el oftalmoscopio heliográfico y el velocímetro. Además, calculó las primeras tablas de mortalidad confiables, utilizadas todavía por las compañías de seguros. Asimismo, se le considera uno de los pioneros de la investigación de operaciones. Publicó alrededor de 80 libros y artículos en áreas que van desde las matemáticas hasta la teología, astronomía y política.
La Máquina Diferencial
Babbage tenía un gran interés por las máquinas calculadoras, y estudió la posibilidad de construir una máquina capaz de calcular con exactitud. En 1822 construyó la primera de sus máquinas, que podía sumar números hasta de seis cifras. Animado por el éxito continuó sus estudios y, en 1823, diseñó una máquina más elaborada a la que llamó "Máquina Diferencial", que debía estar provista de una impresora. Pero para fabricar el primer modelo necesitaba dinero (1,500 libras esterlinas) que le fue proporcionado por el gobierno, comprometiéndose Babbage a entregar la máquina en dos años. Sin embargo, la construcción avanzaba muy lentamente y, al cumplirse el plazo en 1827, la máquina aún no estaba terminada.
La Máquina Diferencial era capaz de calcular los logaritmos de 1 a 108.000 con notable precisión e imprimirlos, y formuló los fundamentos teóricos de cualquier autómata de cálculo. Por entonces Babbage ya conocía los sistemas decimales de conteo, y estaba familiarizado con la descomposición de complejas operaciones matemáticas en secuencias sencillas. La presentó en la Real Sociedad Astronómica de Londres, recibiendo por ella la Medalla de Oro de dicha sociedad. Fue entonces cuando obtuvo una subvención para diseñar y construir una máquina en diferencias más grande. Babbage esperaba terminarla en 3 años pero la construcción se alargó
en el tiempo. En 1834 se paró su construcción.
La Máquina Analítica
Su trabajo con la máquina diferencial lo llevó a nuevas ideas, y así en 1834 ya tenía realizados los primeros bocetos de la Máquina Analítica, que nunca llegó a construirse pero su diseño sentó las bases de la computadora actual. Pretendía que fuese capaz de realizar cualquier secuencia de instrucciones aritméticas. Para esta realización contó con fondos del gobierno inglés y con la colaboración de la que está considerada como la primera programadora de la historia, Ada Lovelace, hija del poeta Lord Byron. El objetivo de la Máquina Analítica era ser una calculadora de propósito general, controlada por una secuencia de instrucciones, con una unidad de proceso, una memoria central, unidades de entrada y salida de datos (¿les suena conocido?), y la posibilidad de controlar paso a paso las instrucciones, es decir, lo que hoy conocemos como programa.
En esencia era una computadora de propósitos generales. La máquina analítica de Babbage podía sumar, restar, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto, y su diseño requería miles de engranes y mecanismos. Los escépticos le pusieron el sobrenombre de "la locura de Babbage".
Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica y las partes de precisión, hubiera adelantado el nacimiento de la computadora electrónica en casi un siglo. Irónicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de programa secuencial.
Ada Lovelace ayudó a Babbage económicamente y escribió artículos y programas para la referida máquina, algunos de ellos sobre juegos. Sin embargo, este proyecto tampoco pudo realizarse por razones económicas y tecnológicas. Se sabe que Babbage nunca recibió remuneración alguna por sus trabajos, por lo que el Parlamento Inglés decidió ofrecerle un título de nobleza a cambio (le ofrecieron el título de Barón). Babbage rehusó aceptarlo, pidiendo mejor una pensión vitalicia que tampoco llegó a recibir. Sin embargo, ha recibido algo más valioso que cualquier título de nobleza: ser considerado el padre de la computación moderna.
A pesar de que Babbage no pudo construir la máquina analítica, su proyecto supuso sentar las bases de la computación y todos los conceptos por él expuestos en su diseño se demostraron que eran correctos años más tarde. Howard Aiken, director del Proyecto Mark I de la Universidad de Harvard, afirmó: "Si Babbage hubiera vivido 75 años más tarde, yo estaría desempleado".
Babbage, por supuesto, no pudo terminar su invento y, a su muerte, había invertido en él más de 20,000 libras esterlinas. Su genio matemático, demasiado avanzado para su época, intentó algo que sólo más de un siglo después habría de hacerse realidad. En 1830 apareció su libro Reflexiones sobre la Decadencia de la Ciencia en Inglaterra, al que siguieron, en 1832, Una Economía de las Máquinas y las Manufacturas y en 1837, "El noveno Tratado de Bridgewater".
Charles Babbage murió el 24 de octubre de 1871. La Sociedad Real a la que tan fuertemente cuestionara Babbage en vida, no se molestó en imprimirle un obituario, y el Times de Londres lo ridiculizó despiadadamente. Sin duda, fue un triste final para un brillante inventor, matemático, filósofo y sobre todo pensador, poseedor de una aguda mente y una profunda inteligencia.
Publicado por neriovf en 0:48 2 comentarios
Etiquetas: Biografías
domingo, 7 de octubre de 2007
Prefijos Binarios
No obstante, el uso incorrecto de los prefijos del Sistema Internacional (con base 10) como si fueran prefijos binarios (con base 2) es causa de serias confusiones. De todas formas, estos prefijos mantienen el significado de las potencias de 10 cuando de lo que se trata es de expresar la velocidad de la transmisión de datos (cantidad de bits): la red Ethernet de 10 Mbps es capaz de transmitir 10.000.000 bps, y no 10.485.760 bps.
El problema se acrecienta por no ser las unidades de información bit y byte unidades del SI. En el SI el bit, el byte, el octeto, el baudio o la cantidad de signos se darían en hertzios. Aunque es más claro emplear "bit" para el bit y "b" para el byte, a menudo se emplea "b" para el bit y "B" para el byte (en el SI, B es la unidad del belio, siendo la del decibelio dB).
El uso convencional sembró confusión: 1024 no es 1000. Los fabricantes de dispositivos de almacenamiento habitualmente usan los factores SI, por lo que un disco duro de 30 GB tiene una capacidad aproximada de 28 * 2^30 bytes, lo que serían 28 GB reales. Los ingenieros en telecomunicaciones también los usan: una conexión de 1 Mbps transfiere 106 bits por segundo. Sin embargo, los fabricantes de disquetes trabajan de otra forma: para ellos, el prefijo M no significa (1000 × 1000) como en el SI, ni (1024 × 1024) como en informática. El disquete común de "1,44 MB" tiene una capacidad de (1,44 × 1000 × 1024) bytes de 8 bits. (Sin olvidar que los disquetes de 3½ pulgadas son en realidad de 90 milímetros.)
En la época de las computadoras de 32K de memoria ROM esta confusión no era muy peligrosa, ya que la diferencia entre 1000 y 1024 es más o menos 2%. En cambio con el acelerado crecimiento de la capacidad de las memorias y de los periféricos de almacenamiento en la actualidad, las diferencias llevan a errores cada vez mayores.
Para tratar de aclarar esta confusión, la Comisión Electrotécnica Internacional (International Electrotechnical Commission IEC) eligió nuevos prefijos binarios en 1998, que consisten en colocar un 'bi' tras la primera sílaba del prefijo decimal (siendo el símbolo binario como el decimal más una 'i'). Por lo tanto, ahora un kilobyte (1 kB) son 1.000 bytes, y un kibibyte (KiB) 2^10 = 1.024 bytes. De la misma forma, mebi (Mi: 2^20), gibi (Gi: 2^30), tebi (Ti: 2^40), pebi (Pi: 2^50) y exbi (Ei: 2^60). Aunque el estándar del IEC nada diga al respecto, los siguientes prefijos alcanzarían hasta zebi (Zi: 2^70) y yobi (Yi: 2^80). Hasta el momento el empleo de estos últimos ha sido muy escaso.
Los nombres IEC están definidos hasta "exbi", correspondiente al prefijo SI "exa". Los otros prefijos, "zetta" (10^21) y "yotta" (10^24) no tienen correspondiente. Por extensión de lo establecido por la norma, se puede sugerir "zebi" (Zi) y "yobi" (Yi) como prefijos para 2^70 y 2^80. Incluso, fuera del ámbito de los organismos de estandarización, se han sugerido los prefijos "bronto" para 2^90 y "geop" para 2^100.
La parte bi del prefijo viene de la palabra binario, por ejemplo, kibibyte significa un kilobinario byte, que es 1024 bytes. Nótese también la K en mayúscula para el símbolo "Kibi-": mientras que la letra para el prefijo análogo en el Sistema Internacional kilo- es una k en minúscula. La K en mayúscula ha sido seleccionada para dar consistencia con otros prefijos y con el uso extendido y erróneo del prefijo del SI (como en "KB").
Para el año 2006 esta convención de nombres ya es empleada por algunos sistemas operativos como GNU/Linux, donde ya existen distribuciones que la exhiben (como Ubuntu), aunque todavía no ha ganado amplia difusión en otros medios.
En la octava edición del Sistema Internacional de Unidades publicada en el año 2006 se especifica que los prefijos del SI se refieren estrictamente a potencias de 10, e indica que los prefijos adoptados por la IEC para potencias binarias en el estándar internacional IEC 60027-2:2005, Símbolos de letras para usarse en tecnología eléctrica - Parte 2: Tele-comunicaciones y electrónica (IEC 60027-2:2005, Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics) deberían ser usados en el campo de la tecnología de la información para evitar el uso incorrecto de los prefijos del SI, aunque estos prefijos no sean parte del SI.
La IEEE ha aceptado el uso de los prefijos binarios bajo el estándar IEEE 1541 publicado en el año 2002 y elevado a estándar de uso completo en el año 2005. Allí se especifica "B" como el símbolo para el byte (por ejemplo, MB significa megabyte), y "b" como el símbolo para bit; sin embargo la IEC 60027 y el MIXF especifican "bit" (por ejemplo, Mbit para megabit), teniendo la mínima ambigüedad posible de byte "b" vs "B".
Publicado por neriovf en 18:37 2 comentarios
Etiquetas: Estándares
Sistema Internacional de Unidades
Unidades Básicas
• Deben usarse preferentemente los símbolos y no los nombres. Por ejemplo, debe escribirse kHz y no kilohertz o kilohertzio.
• Los símbolos no deben pluralizarse, es decir, no debe añadirse una "s" al final. Así, escribirá 10 kilohertz y no 10 kilohertzs, e igualmente 5 kg y no 5 kgs.
Prefijos del Sistema Internacional
Vistazo General
5 cm = 5 × 10−2 m = 5 × 0,01 m = 0,05 m
3 MW = 3 × 106 W = 3 × 1.000.000 W = 3.000.000 W
Publicado por neriovf en 16:03 0 comentarios
Etiquetas: Estándares
lunes, 24 de septiembre de 2007
Sistema de Unidades Binarias
BIT
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cualesquiera, como verdadero o falso, abierto o cerrado, abajo o arriba, norte o sur, masculino o femenino, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).
El concepto de bit está asociado a un simple circuito electrónico, el cual puede estar abierto o cerrado, haciendo corresponder el estado cerrado al valor 1 y el estado abierto al valor 0. Los aspectos técnicos de esta asociación lo dejamos para otra oportunidad.
Origen del término bit
Fue Claude E. Shannon, creador de la Teoría de la Información, quien usó la palabra bit por primera vez en un trabajo académico de 1948. Él atribuyó su origen a John W. Tukey, que había escrito una nota en los laboratorios Bell el 9 de enero de 1947 en la cual contrajo las palabras binary digit a simplemente "bit". Curiosamente, Vannevar Bush, integrante del equipo que construyó la primera bomba atómica y también en el desarrollo de las primitivas computadoras, había escrito en 1936 sobre los "bits de información" que podían ser almacenados en las tarjetas perforadas usadas en las computadoras mecánicas de ese tiempo. Hay que recordar que la palabra bit originalmente en inglés significa “pedazo”, “pizca”, etc.
Combinaciones de bits
Con un bit podemos representar solamente dos valores. Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. En general, con n número de bits pueden representarse hasta 2^n valores diferentes.
Nota: Un byte y un octeto no son la misma cosa. Mientras que un octeto siempre tiene 8 bits, un byte contiene un número fijo de bits, que no necesariamente son 8. En los computadores antiguos, el byte podría estar conformado por 6, 7, 8 ó 9 bits. Hoy en día, en la inmensa mayoría de los computadores, y en la mayoría de los campos, un byte tiene 8 bits, siendo equivalente al octeto, pero hay excepciones.
Bits más y menos significativos
Un conjunto de bits, como por ejemplo un byte, representa un conjunto de elementos ordenados. Se llama bit más significativo (MSB: More Significant Bit) al bit que tiene mayor valor dentro del conjunto; análogamente, se llama bit menos significativo (LSB: Less Significant Bit) al bit que tiene menor valor dentro del conjunto. En un byte, el bit más significativo es el de la posición 7, y el menos significativo es el de la posición 0. En cualquier caso, el bit más significativo es el del extremo izquierdo y el menos significativo el del extremo derecho.
BYTE
Voz inglesa, se pronuncia bait, que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.
Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de una computadora, desde seis a nueve bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).
Historia
El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras fases de diseño de la IBM 7030. Originalmente fue definido en instrucciones de 4 bits. Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El término byte viene de bite (en inglés "mordisco"), como la cantidad más pequeña de datos que una computadora podía "morder" a la vez, pero se forma de la expresión binary term. El cambio de letra no solo redujo la posibilidad de confundirlo con "bit", sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras.
Los primeros microprocesadores, como el Intel 8008 (el predecesor directo del 8080 y el Intel 8086) podían realizar un número pequeño de operaciones en 4 bits, como la instrucción DAA (ajuste decimal) y la bandera half carry que eran utilizados para implementar rutinas de aritmética decimal. Estas cantidades de cuatro bits se llamaron "nibble" (“mordisquito”, “bocado”) para contrastarlo con byte (mordisco) y con bit (pizca).
Little Endian y Big Endian
En las computadoras cada byte se identifica con su posición en la memoria (dirección). Cuando se manejan números de más de un byte, éstos también deben estar ordenados. Este aspecto es particularmente importante en la programación en código máquina, ya que algunas máquinas consideran el byte situado en la dirección más baja el menos significativo (arquitecura Little Endian, como los procesadores Intel) mientras que otras consideran que ése es el más significativo (arquitectura Big Endian, como los procesadores Motorola). De este modo, un byte con el número decimal 27 se almacenaría en una máquina Little Endian igual que en una máquina Big Endian, ya que sólo ocupa un byte. Sin embargo, para números más grandes los bytes que los representan se almacenarían en distinto orden en cada arquitectura. Por ejemplo, consideremos el número hexadecimal entero AABBCCDD, de 32 bits (4 bytes), localizado en la dirección 100 de la memoria. El número ocuparía las posiciones desde la 100 a la 103, pero dependiendo de si la máquina es little o big endian, los bytes se almacenarían de diferente manera:
Palabras alternativas
Los bytes de 8 bits a menudo se llaman octetos en contextos formales como los estándares industriales, así como en redes de computadoras y telecomunicaciones para evitar confusiones sobre el número de bits implicados. Sin embargo, los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML. Un octeto es también la palabra utilizada por la cantidad de ocho bits en muchos lenguajes no ingleses.
Publicado por neriovf en 23:52 0 comentarios
Etiquetas: Estándares
jueves, 30 de agosto de 2007
Codificación de Caracteres
Normas de Codificación
ASCII
Historia
Los Caracteres de Control ASCII
Caracteres Imprimibles ASCII
Variantes de ASCII
Publicado por neriovf en 0:55 0 comentarios
Etiquetas: Estándares
miércoles, 15 de agosto de 2007
AL JWARIZMI
Al-Jwarizmi fue matemático, astrónomo y geógrafo; se le considera el fundador de varias ramas de las matemáticas y el que usó por primera vez determinados conceptos básicos en esta ciencia. Sus ideas influenciaron en varios matemáticos medievales.
Publicado por neriovf en 12:56 0 comentarios
Etiquetas: Biografías
martes, 14 de agosto de 2007
Introducción
Por supuesto que la principal actividad de este blog será interactuar con mis alumnos a través de trabajos, proyectos y evaluaciones, pero también serán tratados temas que directa o indirectamente tengan relación con la Ciencia de la Computación. Por ejemplo, trataremos de incorporar cada semana una biografía de algún personaje importante en la historia de esta ciencia relativamente reciente, pero no menos llena de hechos relevantes y hasta curiosos.
Igualmente se procurará la incorporación de código fuente de programas en diferentes lenguajes, pues consideramos que la habilidad de programar nunca debe perderse, pues es la base de la computación. Estos programas seguramente vendrán como complementos de los temas tratados en cada artículo, incluso podrían formularse como proyectos.
Esperamos su colaboración y participación para que todos salgamos ganando, pues el aprendizaje nunca termina.
Publicado por neriovf en 22:52 0 comentarios