domingo, 4 de noviembre de 2007

Ordenador o Computadora

Los hispanohablantes del lado americano del Atlántico sentimos, en general, una gran molestia o simplemente extrañeza, al ver u oír la palabra ordenador para referirse a esa omnipresente máquina que todos por aquí llamamos computadora, o computador en algunos casos. El porqué de esta diferencia es el tema que trataremos de seguidas, basados principalmente en un artículo de profesor de la Universidad Complutense de Madrid Antonio Vaquero Sánchez1, y un pequeño libro escrito por el francés Claude Bellavoine2 a finales de los años 60's.

Pensamos que las diferencias para denominar diversos objetos de uso diario entre las numerosas regiones que tienen el idioma español o castellano como medio de comunicación oral y escrita no constituyen en sí mismo ninguna anomalía, y no se pueden considerar como peligrosas para la conservación y buen uso del mismo. Así tenemos que en algunos países se usa cacerola para referirse a los objetos que en otros sitios se denominan ollas, y lo mismo ocurre con carro y coche. Igualmente pasa con los nombres de animales y vegetales, como en el caso de gambas y camarones, aguacate y palta, piña y ananás, merey y marañón, etc.

En el caso de la terminología científica y tecnológica, sin embargo, este asunto debe ser tratado con mayor rigor, ya que cualquier documento que tenga la pretensión de ser difundido en los ambientes académicos, gubernamentales y de organizaciones internacionales debe ser manejado con un léxico normalizado bien preciso y coherente. Para esto deben tomarse en consideración el origen, la amplitud o universo de uso, y la precisión de cada término referido a algún concepto u objeto de carácter científico y tecnológico. Para corroborar la importancia de este planteamiento nos podemos remitir al conocido portal web Wikipedia.org en su versión en español, el cual a través de un wikiproyecto denominado Terminología Informática, en el cual intervinieron muchos de sus colaboradores de ambos lados del Atlántico, estableció una normativa para la nomenclatura de los términos técnicos a utilizarse en sus artículos con la temática informática3. (A propósito, nuestro próximo artículo se refiere al uso de las palabras Informática y Computación).

Comencemos entonces con fragmentos del artículo del profesor Vaquero Sánchez titulado "Uso de la palabra Ordenador":

"(…) En España el término ordenador está muy extendido para designar a la máquina por excelencia de la Informática. Hay una minoría, en general universitaria, que usa indistintamente los términos computadora (o computador) y ordenador. Mucho menos somos los que sólo usamos el término computadora. Pero solamente en España se usa la palabra ordenador, que es absolutamente desconocida en América. La comunidad americana de habla española sólo usa la palabra computador y también computadora, aunque esta última en menor medida.

"(…) Antes que ordenador, en España se usó la palabra calculadora. Calculator aparece antes que computer en la literatura germinal de las computadoras. Así, la máquina desarrollada en 1944, bajo la dirección del Profesor Aiken en la Universidad de Harvard, era referida como Mark I o Automatic Sequence Calculator. El profesor García Santesmases pasó un tiempo trabajando con el grupo de las Marks. Por él se introdujo en nuestro país la palabra calculadora, para designar lo que mucho después se llamaría ordenador. Calculadora fue pues el primer término con que se conocieron estas máquinas en España, término que se usó extensamente en la década de los 60, como se comprueba más adelante, e incluso llega a la de los 70. Desde entonces se aplica sólo a las máquinas de mano con teclas numéricas y funcionales.

"Vamos a rastrear ahora el origen de la palabra ordenador. Trasladémonos a Francia. Hacia 1962 aparecen dos palabras nuevas en los ambientes universitarios franceses: Informatique y Ordinateur. Ambas tienen una rápida difusión y aceptación en el país vecino. Por ejemplo en 1963 ya existía en la Facultad de Ciencias de la Universidad de Toulouse un Laboratoire d'Informatique. En España se adoptó rápidamente la palabra Informática, pero esa rapidez no se dio con la palabra ordenador. Prueba de ello es la traducción del libro Vocabulary of Infomation Processing, (…) computer se tradujo por calculadora.

"La palabra ordenador aparece escrita por primera vez en un diccionario de Informática en español en 1972. Es el Diccionario-Glosario de Proceso de Datos Inglés-Español, IBM, 1972. La adopción del galicismo tiene un éxito fulgurante, directamente proporcional al crecimiento de usuarios de Informática, influidos por los profesionales comerciales. El origen ya lo conocemos. Ahora bien, vamos al fondo. ¿Qué significa ordinateur? No se debe entrar al trapo de los que defienden el uso de la palabra ordenador porque éste realiza ordenaciones (operaciones de ordenación). Puede hacer más, muchísimo más, que ordenar elementos ordenables. Admitir esa denominación por esa causa sería como admitir la designación del todo por una parte solamente.

"Tampoco es válido el argumento basado en la acepción de orden como instrucción. Ordinateur viene definido en francés así "... qui émite ordres". En definitiva, quien da órdenes, no quien las recibe. Por tanto, el uso de la palabra ordenador es una incorrección semántica. (…) Lo dicen los propios franceses. Los mismos que contribuyeron a la creación, difusión y aceptación del término.

"¿Qué hacemos aquí sobre la utilización de los diversos términos? (…) Los hispanoparlantes de otros continentes (…) siempre usan computador/a. Y no van a cambiar. Tienen la razón de la fuerza numérica, pues son casi 10 veces más que nosotros. Y nosotros, los españoles, carecemos de argumentos lingüísticos sólidos para convencerles. ¿Qué podemos hacer aquí? Sería más lógico que, si hay que hacer algún cambio, lo hiciésemos nosotros. Deberíamos hacerlo en aras de la cohesión de nuestra lengua. (…) En cuanto al género, éste carece de importancia. Un computador (masculino) es un sistema (masculino) y una computadora (femenino) es una máquina (femenino). Pero es curioso que sólo se diga ordenador y no ordenadora. Esta curiosidad queda para los estudiosos de los fenómenos sociolingüísticos."

Ahora bien, ¿por qué los franceses utilizan el término ordenador (ordinateur)? La respuesta la hallamos en el libro de Bellavoine y es a mi parecer francamente absurda. Veamos entonces el origen de la palabra ordenador (Las negritas y cursivas son nuestras):

"En 1954, la Compañía IBM de Francia tropezó con el problema de traducir la denominación "Electronic Data Processing Machine" (EDPM). (…) No quería usar el término "Computadora", aunque los primeros trabajos eran sobre todo de índole científica, porque esa palabra hubiera limitado las posibilidades de utilización y, por consiguiente, de venta de esa máquina y no expresaba en forma adecuada la innovación técnica. La expresión "Machines électroniques a données processionnelles" ("Máquinas Electrónicas procesadoras de datos"), en la que se había pensado por un momento, sonaba extraña. En efecto, más tarde, la palabra inglesa "data" se tradujo por "datos" y luego por "información", mientras que "Processing" se convirtió en "procesamiento" y también en "tratamiento"; esto dio lugar a nuestra definición. Los estadounidenses, a su vez, inventaron un término más sencillo, el de computadora.

La IBM de Francia se dirigió entonces al profesor Jacques Perret, de la Facultad de Letras de París, y éste propuso que se volviera a introducir una palabra teológica, ¡caída en desuso desde hacía 600 años¡, la palabra "Ordenador". Dios era el gran Ordenador del Universo, es decir, el que ordena las cosas de acuerdo con un plan. Modestamente, el término se juzgaba digno de las nuevas máquinas cuyo porvenir se vislumbraba. La definición se aplicó, pues, a las nuevas EDPM, capaces de ordenar informaciones dispersas en función de un objetivo preciso."

Como diría un francés: "Mon Dieu!"

En un foro4 sobre el tema un ingeniero de sistemas español, cuyo nombre lamentablemente no aparece, dijo lo siguiente:

"(…) Efectivamente, el desafortunado término de "ordenador" (copiado sin criterio de los franceses) se usó por primera vez en España a principios de los 70, pero no fue sino hasta los 80 que se popularizó, con las PCs. Hasta ese momento todos decíamos "Computadora". (…) La carrera que yo estudié se llamaba oficialmente en casi todas la Universidades españolas "Ciencias de la Computación", y ese nombre aún estaba en uso hasta no hace tanto en varias universidades.

(…) Este es un término que nos viene del latín, y su raíz está en nuestro vocabulario desde hace siglos. Las Computadoras, es decir las máquinas de cómputo, no hacen muchas cosas; sólo hacen una cosa: computar ceros y unos. (…) En definitiva, la Academia de la Lengua en España, tradicionalmente compuesta por personas muy influidas por la cultura francesa y en aquellos años con escasísimos conocimientos técnicos, optaron acríticamente por separarse de lo que era una práctica extendida y natural en nuestro idioma, decir "Computadora". Aún conservo mis primeros libros editados e impresos en España donde sólo se usaba ese término."

Efectivamente, creo que la clave de todo este asunto es que hablamos de una máquina (o sistema) que es capaz de procesar muchísimos tipos de datos, como números, textos, gráficos, fotografías y videos, entre otros, pero a la larga todo su trabajo se reduce a computar ceros y unos, como dice nuestro anónimo amigo español. Así se trate de un video-juego, una aplicación ofimática, un navegador de Internet, lo que sea que se ejecute en una computadora será computable.


 

  1. Claude Bellavoine.- ¿Qué es una Computadora? Editorial El Ateneo. Buenos Aires. 1973. Traducción de la obra en francés Qu'est-ce qu'un ordinateur?. 1969.
  2. (http://es.wikipedia.org/wiki/Wikiproyecto:Terminología_Informática)
  3. http://86400.es/2007/04/17/¿-ordenador-o-computador-la-cohesion-del-lenguaje/

jueves, 18 de octubre de 2007

Charles Babbage – Padre de la Computación

Aunque pudiéramos considerar a la computadora el invento más característico de nuestro tiempo, sus antecedentes se remontan a más de 150 años cuando un matemático inglés diseñó y construyó una máquina que por su estructura y las funciones que debía desarrollar constituye, sin dudas, el primer prototipo de computadora jamás construido.

Charles Babbage, nacido el 26 de diciembre de 1791 en Devonshire, Inglaterra, fue uno de los dos niños sobrevivientes de Benjamín Babbage, banquero, y Beatriz Plumleigh Teapen. Siendo un niño débil y enfermizo, el pequeño Charles padeció de una severa fiebre, que hizo que sus padres temieran por su vida y, buscando su recuperación, decidieron enviarlo a Teignmouth por un tiempo, lo que ha ocasionado confusiones sobre su lugar de nacimiento en algunos de sus biógrafos.


En octubre de 1810 Babbage ingresó al Trinity College en Cambridge donde estudió matemáticas y química. Obtuvo su licenciatura en matemáticas en 1814, graduándose como el primero en su clase, y posteriormente ingresó a la maestría en matemáticas a Cambridge, de donde se graduó en 1817. En 1816 fue elegido miembro de la Royal Society donde jugó un papel preponderante en la fundación de la Sociedad Astronómica Real en 1820, y ya en 1828 ingresó en su universidad como profesor de Matemáticas.



Se dice que durante sus años universitarios, Babbage se mostró un tanto decepcionado al descubrir que las matemáticas de Newton, que había muerto 200 años antes, seguían vigentes en Cambridge, sin mayor evolución, e ignorando todos los avances que se habían dado en diversas partes del mundo. Babbage se convenció de que sus conocimientos de matemáticas eran superiores a los de sus maestros, y decidió fundar la Sociedad Analítica, junto con H.F.W. Herschel y George Peacock, con el propósito de renovar la enseñanza de las matemáticas en Inglaterra. Fue precisamente durante una de las reuniones de la Sociedad Analítica en la que se cuenta que Babbage estaba distraído contemplando una tabla de logaritmos que se encontraba frente a él y alguien se le acercó a preguntarle: "Bien, Babbage, ¿en qué sueñas?", a lo que él respondió, mientras señalaba la tabla: "Creo que todas estas tablas podrían ser calculadas por una máquina". Babbage había constatado que muchos de los cálculos consistían en operaciones que había que repetir de manera regular, y desde este punto de vista especuló que debería ser posible diseñar una máquina calculadora que pudiera hacer estas operaciones de forma automática.


La carrera de Babbage como inventor y como autor fue muy prolífica. Dentro de sus inventos más destacados se encuentra el dinamómetro, las tarifas postales uniformes, los atrapa-vacas motorizados, las luces ocultas de los faros, el oftalmoscopio heliográfico y el velocímetro. Además, calculó las primeras tablas de mortalidad confiables, utilizadas todavía por las compañías de seguros. Asimismo, se le considera uno de los pioneros de la investigación de operaciones. Publicó alrededor de 80 libros y artículos en áreas que van desde las matemáticas hasta la teología, astronomía y política.



La Máquina Diferencial

Babbage tenía un gran interés por las máquinas calculadoras, y estudió la posibilidad de construir una máquina capaz de calcular con exactitud. En 1822 construyó la primera de sus máquinas, que podía sumar números hasta de seis cifras. Animado por el éxito continuó sus estudios y, en 1823, diseñó una máquina más elaborada a la que llamó "Máquina Diferencial", que debía estar provista de una impresora. Pero para fabricar el primer modelo necesitaba dinero (1,500 libras esterlinas) que le fue proporcionado por el gobierno, comprometiéndose Babbage a entregar la máquina en dos años. Sin embargo, la construcción avanzaba muy lentamente y, al cumplirse el plazo en 1827, la máquina aún no estaba terminada.


La Máquina Diferencial era capaz de calcular los logaritmos de 1 a 108.000 con notable precisión e imprimirlos, y formuló los fundamentos teóricos de cualquier autómata de cálculo. Por entonces Babbage ya conocía los sistemas decimales de conteo, y estaba familiarizado con la descomposición de complejas operaciones matemáticas en secuencias sencillas. La presentó en la Real Sociedad Astronómica de Londres, recibiendo por ella la Medalla de Oro de dicha sociedad. Fue entonces cuando obtuvo una subvención para diseñar y construir una máquina en diferencias más grande. Babbage esperaba terminarla en 3 años pero la construcción se alargó
en el tiempo. En 1834 se paró su construcción.



La Máquina Analítica

Su trabajo con la máquina diferencial lo llevó a nuevas ideas, y así en 1834 ya tenía realizados los primeros bocetos de la Máquina Analítica, que nunca llegó a construirse pero su diseño sentó las bases de la computadora actual. Pretendía que fuese capaz de realizar cualquier secuencia de instrucciones aritméticas. Para esta realización contó con fondos del gobierno inglés y con la colaboración de la que está considerada como la primera programadora de la historia, Ada Lovelace, hija del poeta Lord Byron. El objetivo de la Máquina Analítica era ser una calculadora de propósito general, controlada por una secuencia de instrucciones, con una unidad de proceso, una memoria central, unidades de entrada y salida de datos (¿les suena conocido?), y la posibilidad de controlar paso a paso las instrucciones, es decir, lo que hoy conocemos como programa.




Esta máquina poseía la mayoría de las características de la computadora moderna. Babbage deseaba que fuera capaz de ejecutar cualquier operación matemática basándose en la alimentación de información por medio de tarjetas perforadas. La máquina de Babbage debería ser capaz de responder con rapidez y exactitud, y proporcionar la solución de los más complejos problemas matemáticos y algebraicos. Además de ese banco de información, la máquina poseía muchas de las características de una moderna computadora: estaba provista de memoria y podía comparar resultados, imprimía las respuestas, procesaba los datos y ¡modificaba su propio programa!


En esencia era una computadora de propósitos generales. La máquina analítica de Babbage podía sumar, restar, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto, y su diseño requería miles de engranes y mecanismos. Los escépticos le pusieron el sobrenombre de "la locura de Babbage".


Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica y las partes de precisión, hubiera adelantado el nacimiento de la computadora electrónica en casi un siglo. Irónicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de programa secuencial.


Ada Lovelace ayudó a Babbage económicamente y escribió artículos y programas para la referida máquina, algunos de ellos sobre juegos. Sin embargo, este proyecto tampoco pudo realizarse por razones económicas y tecnológicas. Se sabe que Babbage nunca recibió remuneración alguna por sus trabajos, por lo que el Parlamento Inglés decidió ofrecerle un título de nobleza a cambio (le ofrecieron el título de Barón). Babbage rehusó aceptarlo, pidiendo mejor una pensión vitalicia que tampoco llegó a recibir. Sin embargo, ha recibido algo más valioso que cualquier título de nobleza: ser considerado el padre de la computación moderna.


A pesar de que Babbage no pudo construir la máquina analítica, su proyecto supuso sentar las bases de la computación y todos los conceptos por él expuestos en su diseño se demostraron que eran correctos años más tarde. Howard Aiken, director del Proyecto Mark I de la Universidad de Harvard, afirmó: "Si Babbage hubiera vivido 75 años más tarde, yo estaría desempleado".


Babbage, por supuesto, no pudo terminar su invento y, a su muerte, había invertido en él más de 20,000 libras esterlinas. Su genio matemático, demasiado avanzado para su época, intentó algo que sólo más de un siglo después habría de hacerse realidad. En 1830 apareció su libro Reflexiones sobre la Decadencia de la Ciencia en Inglaterra, al que siguieron, en 1832, Una Economía de las Máquinas y las Manufacturas y en 1837, "El noveno Tratado de Bridgewater".


Charles Babbage murió el 24 de octubre de 1871. La Sociedad Real a la que tan fuertemente cuestionara Babbage en vida, no se molestó en imprimirle un obituario, y el Times de Londres lo ridiculizó despiadadamente. Sin duda, fue un triste final para un brillante inventor, matemático, filósofo y sobre todo pensador, poseedor de una aguda mente y una profunda inteligencia.


 

domingo, 7 de octubre de 2007

Prefijos Binarios

En el ámbito de la computación se emplean cifras que se expresan casi siempre como potencias de 2, basado en el hecho de que para las computadoras lo normal es lo binario. Inicialmente el prefijo "K" se usaba, y se usa, para expresar el múltiplo más pequeño del byte, unidad de información fundamental, tanto en la memoria principal como en los medios de almacenamiento. La razón es la similitud entre 10^3 y 2^10, que valen, respectivamente, 1000 y 1024. Se escribe en mayúsculas para diferenciarlo de kilo, que es el prefijo que indica el múltiplo 1000 en el Sistema Internacional de Unidades. Posteriormente, a medida que ha crecido la capacidad de almacenamiento de las computadoras, se han ido incorporando nuevos prefijos para expresar múltiplos de byte, tomados directamente del mencionado Sistema Internacional de Unidades, pero basados en potencias de 2. Así lo vemos en la siguiente tabla:


No obstante, el uso incorrecto de los prefijos del Sistema Internacional (con base 10) como si fueran prefijos binarios (con base 2) es causa de serias confusiones. De todas formas, estos prefijos mantienen el significado de las potencias de 10 cuando de lo que se trata es de expresar la velocidad de la transmisión de datos (cantidad de bits): la red Ethernet de 10 Mbps es capaz de transmitir 10.000.000 bps, y no 10.485.760 bps.

El problema se acrecienta por no ser las unidades de información bit y byte unidades del SI. En el SI el bit, el byte, el octeto, el baudio o la cantidad de signos se darían en hertzios. Aunque es más claro emplear "bit" para el bit y "b" para el byte, a menudo se emplea "b" para el bit y "B" para el byte (en el SI, B es la unidad del belio, siendo la del decibelio dB).

El uso convencional sembró confusión: 1024 no es 1000. Los fabricantes de dispositivos de almacenamiento habitualmente usan los factores SI, por lo que un disco duro de 30 GB tiene una capacidad aproximada de 28 * 2^30 bytes, lo que serían 28 GB reales. Los ingenieros en telecomunicaciones también los usan: una conexión de 1 Mbps transfiere 106 bits por segundo. Sin embargo, los fabricantes de disquetes trabajan de otra forma: para ellos, el prefijo M no significa (1000 × 1000) como en el SI, ni (1024 × 1024) como en informática. El disquete común de "1,44 MB" tiene una capacidad de (1,44 × 1000 × 1024) bytes de 8 bits. (Sin olvidar que los disquetes de 3½ pulgadas son en realidad de 90 milímetros.)

En la época de las computadoras de 32K de memoria ROM esta confusión no era muy peligrosa, ya que la diferencia entre 1000 y 1024 es más o menos 2%. En cambio con el acelerado crecimiento de la capacidad de las memorias y de los periféricos de almacenamiento en la actualidad, las diferencias llevan a errores cada vez mayores.

Para tratar de aclarar esta confusión, la Comisión Electrotécnica Internacional (International Electrotechnical Commission IEC) eligió nuevos prefijos binarios en 1998, que consisten en colocar un 'bi' tras la primera sílaba del prefijo decimal (siendo el símbolo binario como el decimal más una 'i'). Por lo tanto, ahora un kilobyte (1 kB) son 1.000 bytes, y un kibibyte (KiB) 2^10 = 1.024 bytes. De la misma forma, mebi (Mi: 2^20), gibi (Gi: 2^30), tebi (Ti: 2^40), pebi (Pi: 2^50) y exbi (Ei: 2^60). Aunque el estándar del IEC nada diga al respecto, los siguientes prefijos alcanzarían hasta zebi (Zi: 2^70) y yobi (Yi: 2^80). Hasta el momento el empleo de estos últimos ha sido muy escaso.



Los nombres IEC están definidos hasta "exbi", correspondiente al prefijo SI "exa". Los otros prefijos, "zetta" (10^21) y "yotta" (10^24) no tienen correspondiente. Por extensión de lo establecido por la norma, se puede sugerir "zebi" (Zi) y "yobi" (Yi) como prefijos para 2^70 y 2^80. Incluso, fuera del ámbito de los organismos de estandarización, se han sugerido los prefijos "bronto" para 2^90 y "geop" para 2^100.

La parte bi del prefijo viene de la palabra binario, por ejemplo, kibibyte significa un kilobinario byte, que es 1024 bytes. Nótese también la K en mayúscula para el símbolo "Kibi-": mientras que la letra para el prefijo análogo en el Sistema Internacional kilo- es una k en minúscula. La K en mayúscula ha sido seleccionada para dar consistencia con otros prefijos y con el uso extendido y erróneo del prefijo del SI (como en "KB").

Para el año 2006 esta convención de nombres ya es empleada por algunos sistemas operativos como GNU/Linux, donde ya existen distribuciones que la exhiben (como Ubuntu), aunque todavía no ha ganado amplia difusión en otros medios.

En la octava edición del Sistema Internacional de Unidades publicada en el año 2006 se especifica que los prefijos del SI se refieren estrictamente a potencias de 10, e indica que los prefijos adoptados por la IEC para potencias binarias en el estándar internacional IEC 60027-2:2005, Símbolos de letras para usarse en tecnología eléctrica - Parte 2: Tele-comunicaciones y electrónica (IEC 60027-2:2005, Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics) deberían ser usados en el campo de la tecnología de la información para evitar el uso incorrecto de los prefijos del SI, aunque estos prefijos no sean parte del SI.

La IEEE ha aceptado el uso de los prefijos binarios bajo el estándar IEEE 1541 publicado en el año 2002 y elevado a estándar de uso completo en el año 2005. Allí se especifica "B" como el símbolo para el byte (por ejemplo, MB significa megabyte), y "b" como el símbolo para bit; sin embargo la IEC 60027 y el MIXF especifican "bit" (por ejemplo, Mbit para megabit), teniendo la mínima ambigüedad posible de byte "b" vs "B".

Sistema Internacional de Unidades

El Sistema Internacional de Unidades, abreviado SI, es el sistema de unidades más extensamente usado, y que antes se conoció como Sistema Métrico Decimal, que es su antecesor y que se ha mejorado. Fue creado en 1960 por la Conferencia General de Pesas y Medidas, que inicialmente definió seis unidades físicas básicas o fundamentales. En 1971, fue añadida la séptima unidad básica, el mol.

Una de las principales características es que sus unidades están basadas en fenómenos físicos fundamentales. La única excepción es la unidad de la magnitud masa, el kilogramo, que está definida como “la masa del prototipo internacional del kilogramo”, o sea, aquel cilindro de platino e iridio almacenado en una caja fuerte de la Oficina Internacional de Pesos y Medidas.

Las unidades del SI son la referencia internacional de las indicaciones de los instrumentos de medida y a las que están referidas a través de una cadena ininterrumpida de calibraciones o comparaciones. Esto permite alcanzar la equivalencia de las medidas realizadas por instrumentos similares, utilizados y calibrados en lugares apartados y por ende asegurar el cumplimiento de las características de los objetos que circulan en el comercio internacional.


Unidades Básicas

El Sistema Internacional de Unidades consta de siete unidades básicas, también denominadas unidades fundamentales. Son las unidades utilizadas para expresar las magnitudes físicas definidas como fundamentales, a partir de las cuales se definen las demás:



Normas Ortográficas para los Símbolos

• Los símbolos de las unidades no deben tratarse como abreviaturas, por lo que se deben escribir siempre tal cual están definidos. Por ejemplo, m para metro, y A para amperio; por tanto, es incorrecto escribir Kg para kilogramos, mt para metro o seg para segundo.

• Deben usarse preferentemente los símbolos y no los nombres. Por ejemplo, debe escribirse kHz y no kilohertz o kilohertzio.

• Los símbolos no deben pluralizarse, es decir, no debe añadirse una "s" al final. Así, escribirá 10 kilohertz y no 10 kilohertzs, e igualmente 5 kg y no 5 kgs.

• Tampoco debe escribirse un punto (".") al final de un símbolo, salvo cuando el símbolo se encuentra al final de una frase. Por lo tanto, es incorrecto escribir, por ejemplo, el símbolo de kilogramos como "kg." (con el punto). La única manera correcta de escribirlo es "kg". Esto se debe a que se quiere evitar que haya malas interpretaciones; por ejemplo: "Kg", podría entenderse como kelvin•gramo, ya que "K" es el símbolo de la unidad de temperatura kelvin. Por otra parte, ésta última se escribe sin el símbolo de grados "º", pues su nombre correcto no es grado Kelvin (°K), sino sólo kelvin (K).

El SI puede ser usado legalmente en cualquier país del mundo, incluso en aquellos que no lo han implantado. En otros muchos países su uso es obligatorio. En los países que utilizan todavía otros sistemas de unidades de medidas, como los Estados Unidos y el Reino Unido, se acostumbran a indicar las unidades del SI junto a las propias, a efectos de conversión de unidades. El SI fue adoptado por la undécima Conferencia General de Pesos y Medidas (CGPM o Conférence Générale des Poids et Mesures) en 1960.


Prefijos del Sistema Internacional

Los prefijos del SI son prefijos empleados para nombrar a los múltiplos y submúltiplos de cualquier unidad del Sistema Internacional (SI), ya sean unidades básicas o derivadas. Estos prefijos no pertenecen solamente al SI. Muchos de ellos, así como la propia idea de emplearlos, son anteriores al establecimiento del Sistema Internacional en 1960; por lo tanto, se emplean a menudo en unidades que no pertenecen al SI. Los prefijos pertenecientes al SI los fija oficialmente la Oficina Internacional de Pesos y Medidas (Bureau International des Poids et Mesures).



Vistazo General
El prefijo kilo, por ejemplo, multiplica por mil, por lo tanto un kilómetro son 1.000 m, y un kilovatio son 1.000 W. El prefijo mili divide entre mil; por lo tanto, un milímetro es la milésima parte de un metro (se necesitan 1.000 milímetros para completar un metro), y un mililitro es la milésima parte de un litro. Otra de las ventajas del SI es el empleo de un mismo prefijo para cualquier unidad, lo que facilita el aprendizaje y el empleo de dicho sistema. Ejemplos:

5 cm = 5 × 10−2 m = 5 × 0,01 m = 0,05 m
3 MW = 3 × 106 W = 3 × 1.000.000 W = 3.000.000 W

No se pueden poner dos o más prefijos juntos: por ejemplo, 10−9 metros hay que escribirlos como 1 nm, y no 1 mµm. Hay que tener en cuenta antes los prefijos que las potencias; así, "km²" se lee kilómetros cuadrados, no kilo metros-cuadrados. Por ejemplo, 3 km² son 3.000.000 m², no 3.000 m². Es decir, los prefijos del SI en lugar de miles se convierten en multiplicadores de millón en el caso de las potencias de 2, de mil millones en el caso de las potencias de 3 y así sucesivamente.

Son mejores los prefijos cuya potencia es múltiplo de tres. Por ello es preferible emplear "100 m" que "1 hm". Hay, sin embargo, algunas excepciones importantes: el centímetro, la hectárea (hecto-área), el centilitro, el decímetro cúbico (equivalente a un litro), el hectopascal y el decibelio (la décima parte de un belio).

Los prefijos myria- y myrio-, que han quedado obsoletos, se abandonaron antes de que el SI entrara en vigor en 1960, probablemente por no seguir el mismo modelo que el resto de prefijos, por no existir símbolos adecuados para representarlos y por ser, en general, poco empleados.

lunes, 24 de septiembre de 2007

Sistema de Unidades Binarias

Todos se habrán preguntado alguna vez de dónde han surgido los nombres utilizados para medir la cantidad de información almacenada y transmitida por medios digitales, y los respectivos múltiplos de estas unidades. Las palabras bit y byte, por ejemplo y sus prefijos como mega, giga o tera.


BIT
Empecemos por el principio, el término bit es el acrónimo de Binary digit (dígito binario). Un bit es un dígito del sistema de numeración binario. La Real Academia Española (RAE) ha aceptado la palabra bit con el plural bits.

Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.

El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cualesquiera, como verdadero o falso, abierto o cerrado, abajo o arriba, norte o sur, masculino o femenino, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).

El concepto de bit está asociado a un simple circuito electrónico, el cual puede estar abierto o cerrado, haciendo corresponder el estado cerrado al valor 1 y el estado abierto al valor 0. Los aspectos técnicos de esta asociación lo dejamos para otra oportunidad.


Origen del término bit
Fue Claude E. Shannon, creador de la Teoría de la Información, quien usó la palabra bit por primera vez en un trabajo académico de 1948. Él atribuyó su origen a John W. Tukey, que había escrito una nota en los laboratorios Bell el 9 de enero de 1947 en la cual contrajo las palabras binary digit a simplemente "bit". Curiosamente, Vannevar Bush, integrante del equipo que construyó la primera bomba atómica y también en el desarrollo de las primitivas computadoras, había escrito en 1936 sobre los "bits de información" que podían ser almacenados en las tarjetas perforadas usadas en las computadoras mecánicas de ese tiempo. Hay que recordar que la palabra bit originalmente en inglés significa “pedazo”, “pizca”, etc.

Combinaciones de bits
Con un bit podemos representar solamente dos valores. Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. En general, con n número de bits pueden representarse hasta 2^n valores diferentes.



A través de secuencias de bits, se puede codificar cualquier valor discreto como números, palabras, e incluso imágenes. Cuatro bits forman un nibble, y pueden representar hasta 2^4 = 16 valores diferentes; ocho bits forman un octeto, y se pueden representar hasta 2^8 = 256 valores diferentes.

Nota: Un byte y un octeto no son la misma cosa. Mientras que un octeto siempre tiene 8 bits, un byte contiene un número fijo de bits, que no necesariamente son 8. En los computadores antiguos, el byte podría estar conformado por 6, 7, 8 ó 9 bits. Hoy en día, en la inmensa mayoría de los computadores, y en la mayoría de los campos, un byte tiene 8 bits, siendo equivalente al octeto, pero hay excepciones.

Bits más y menos significativos
Un conjunto de bits, como por ejemplo un byte, representa un conjunto de elementos ordenados. Se llama bit más significativo (MSB: More Significant Bit) al bit que tiene mayor valor dentro del conjunto; análogamente, se llama bit menos significativo (LSB: Less Significant Bit) al bit que tiene menor valor dentro del conjunto. En un byte, el bit más significativo es el de la posición 7, y el menos significativo es el de la posición 0. En cualquier caso, el bit más significativo es el del extremo izquierdo y el menos significativo el del extremo derecho.

BYTE
Voz inglesa, se pronuncia bait, que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.

Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de una computadora, desde seis a nueve bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).


Historia
El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras fases de diseño de la IBM 7030. Originalmente fue definido en instrucciones de 4 bits. Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El término byte viene de bite (en inglés "mordisco"), como la cantidad más pequeña de datos que una computadora podía "morder" a la vez, pero se forma de la expresión binary term. El cambio de letra no solo redujo la posibilidad de confundirlo con "bit", sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras.

Los primeros microprocesadores, como el Intel 8008 (el predecesor directo del 8080 y el Intel 8086) podían realizar un número pequeño de operaciones en 4 bits, como la instrucción DAA (ajuste decimal) y la bandera half carry que eran utilizados para implementar rutinas de aritmética decimal. Estas cantidades de cuatro bits se llamaron "nibble" (“mordisquito”, “bocado”) para contrastarlo con byte (mordisco) y con bit (pizca).

Little Endian y Big Endian
En las computadoras cada byte se identifica con su posición en la memoria (dirección). Cuando se manejan números de más de un byte, éstos también deben estar ordenados. Este aspecto es particularmente importante en la programación en código máquina, ya que algunas máquinas consideran el byte situado en la dirección más baja el menos significativo (arquitecura Little Endian, como los procesadores Intel) mientras que otras consideran que ése es el más significativo (arquitectura Big Endian, como los procesadores Motorola). De este modo, un byte con el número decimal 27 se almacenaría en una máquina Little Endian igual que en una máquina Big Endian, ya que sólo ocupa un byte. Sin embargo, para números más grandes los bytes que los representan se almacenarían en distinto orden en cada arquitectura. Por ejemplo, consideremos el número hexadecimal entero AABBCCDD, de 32 bits (4 bytes), localizado en la dirección 100 de la memoria. El número ocuparía las posiciones desde la 100 a la 103, pero dependiendo de si la máquina es little o big endian, los bytes se almacenarían de diferente manera:


Palabras alternativas
Los bytes de 8 bits a menudo se llaman octetos en contextos formales como los estándares industriales, así como en redes de computadoras y telecomunicaciones para evitar confusiones sobre el número de bits implicados. Sin embargo, los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML. Un octeto es también la palabra utilizada por la cantidad de ocho bits en muchos lenguajes no ingleses.


jueves, 30 de agosto de 2007

Codificación de Caracteres

La codificación de caracteres nos permite representar un carácter del alfabeto de un lenguaje natural en otro símbolo de algún otro sistema, como un número o una secuencia de pulsos eléctricos en un sistema electrónico, aplicando normas o reglas de codificación.

Normas de Codificación
Indican cómo se codifica un carácter dado en un símbolo en otro sistema de representación. Ejemplos de esto son el código Morse, la norma ASCII o la UTF-8, entre otros.

ASCII
El código ASCII (acrónimo inglés de American Standard Code for Information Interchange: Código Estadounidense Estándar para el Intercambio de Información), pronunciado generalmente áski (quizás por sugerir ask key) es un código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.

El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1 que es una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al inglés, como el español.

ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la mayoría son caracteres de control obsoletos que tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres imprimibles que les siguen en la numeración (empezando por el carácter espacio). Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible para representar textos y para el control de dispositivos que manejan texto.

El código ASCII especifica una correspondencia entre cadenas de bits y símbolos escritos de la lengua, permitiendo de esta forma la comunicación entre dispositivos digitales así como su procesamiento y almacenamiento. El código de caracteres ASCII, especialmente la variante conocida como US-ASCII se usa hoy en casi todas las computadoras, bien sea de escritorio o portátiles así como estaciones de trabajo.

ASCII es, en sentido estricto, un código de siete bits, lo que significa que usa cadenas de siete dígitos binarios (que van de 0 a 127 en base decimal) para representar caracteres. En el momento en el que se introdujo el código ASCII muchas computadoras trabajaban con grupos de ocho bits (bytes u octetos), como la unidad mínima de información; donde el octavo bit se usaba habitualmente como bit de paridad con funciones de control de errores en líneas de comunicación u otras funciones específicas del dispositivo. Las máquinas que no usaban la comprobación de paridad asignaban al octavo bit el valor cero en la mayoría de los casos.

Historia
El código ASCII se desarrolló en el ámbito de la telegrafía, y se usó por primera vez comercialmente como un código de teleimpresión impulsado por los servicios de datos de los Laboratorios Bell, que había planeado usar un código de seis bits, que añadía puntuación y letras minúsculas al más antiguo código de teleimpresión Baudot, pero se les convenció para que se unieran al subcomité de la Agencia de Estándares Estadounidense (ASA), que habían empezado a desarrollar el código ASCII. Baudot ayudó en la automatización del envío y recepción de mensajes telegráficos, y tomó muchas características del código Morse; sin embargo, a diferencia del código Morse, Baudot usó códigos de longitud constante.

La Agencia de Estándares Estadounidense (ASA), que se convertiría más tarde en el Instituto Nacional Estadounidense de Estándares (ANSI), publicó por primera vez el código ASCII en 1963. El ASCII publicado en 1963 tenía una flecha apuntando hacia arriba (↑) en lugar del circunflejo (^) y una flecha apuntando hacia la izquierda en lugar del subrayado (←). La versión de 1967 añadió las letras minúsculas, cambió los nombres de algunos códigos de control y cambió de lugar los dos códigos de control ACK y ESC de la zona de letras minúsculas a la zona de códigos de control. ASCII ha sido actualizado y publicado primero como como ANSI X3.4-1968, luego ANSI X3.4-1977, y finalmente ANSI X3.4-1986.

El código ASCII también está incluido en su inminente relevo, Unicode, constituyendo los primeros 128 caracteres (o los más bajos). Algunos observadores consideran al código ASCII el estándar de software más exitoso que nunca se haya promulgado.


Los Caracteres de Control ASCII
El código ASCII reserva los primeros 32 códigos (numerados del 0 al 31 en decimal) para caracteres de control: códigos no pensados originalmente para representar información imprimible, sino para controlar dispositivos (como impresoras) que usaban ASCII. Por ejemplo, el carácter 10 representa la función "nueva línea" (Line Feed), que hace que una impresora avance el papel, y el carácter 27 representa la tecla "ESCape".

Muchos de los caracteres de control ASCII servían para marcar paquetes de datos, o para controlar protocolos de transmisión de datos (por ejemplo ENQuiry, con el significado: “¿hay alguna estación por ahí?”, ACKnowledge: “recibido” o "acuse de recibo", Negative AcKnowledge: “No recibido”, Start Of Header: “inicio de cabecera”, Start of TeXt: “inicio de texto”, End of TeXt: “final de texto”, etc.).

Actualmente los usuarios de ASCII usan menos los caracteres de control, (con algunas excepciones como Carriage Return ("retorno de carro", o sea, la tecla ENTER) o New Line ("nueva línea"). Los lenguajes modernos de etiquetas, los protocolos modernos de comunicación, el paso de dispositivos basados en texto a basados en gráficos, el declive de las teleimpresoras, las tarjetas perforadas y los papeles continuos han dejado obsoleta la mayoría de caracteres de control.


Caracteres Imprimibles ASCII
El código 32, el carácter espacio, designa al espacio entre palabras, y se produce normalmente por la barra espaciadora de un teclado. Los códigos del 33 al 126 se conocen como caracteres imprimibles, y representan letras (mayúsculas y minúsculas, pero del alfabeto del idioma inglés), dígitos, signos de puntuación y varios símbolos especiales como $, %, & y otros.

Los dígitos del 0 al 9 se representan con sus valores prefijados con el valor 0011 en binario, esto significa que la conversión BCD-ASCII es una simple cuestión de tomar cada unidad BCD y prefijarla con 0011.

La notación BCD (Binary Coded Decimal: Decimal codificado como binario) consiste en representar cada dígito decimal como un número binario de 4 dígitos, de la siguiente manera:


Así entonces, en el código ASCII el carácter 5, por ejemplo, se representa concatenando los dígitos 0011 con su correspondiente valor numérico, o sea, 0101, dando así la secuencia de dígitos binarios 00110101, que corresponde a su vez al número decimal 53 el cual es, entonces, el código ASCII del carácter ‘5’.

Las cadenas de bits de las letras minúsculas y mayúsculas sólo difieren en un bit, el 5, simplificando de esta forma la conversión de uno a otro grupo. Por ejemplo:


Variantes de ASCII
A medida que la tecnología informática se difundió a lo largo del mundo, se desarrollaron diferentes estándares y las empresas desarrollaron muchas variaciones del código ASCII para facilitar la escritura de lenguas diferentes al inglés que usaran alfabetos latinos. Se pueden encontrar algunas de esas variaciones clasificadas como ASCII Extendido, aunque en ocasiones el término se aplica erróneamente para cubrir todas las variantes, incluso las que no preservan el conjunto de códigos de caracteres original ASCII de siete bits.

La tecnología mejoró y aportó medios para representar la información codificada en el octavo bit de cada byte, liberando este bit, lo que añadió otros 128 códigos de carácter adicionales que quedaron disponibles para nuevas asignaciones. Por ejemplo, IBM desarrolló páginas de código de 8 bits que reemplazaban los caracteres de control con símbolos gráficos, y asignó otros caracteres gráficos adicionales a los 128 bytes superiores de la página de códigos.




miércoles, 15 de agosto de 2007

AL JWARIZMI

Uno de los conceptos fundamentales de la Ciencia de la Computación es, sin duda alguna, el de algoritmo, el cual podemos definir como “una secuencia ordenada de operaciones o pasos que permite hallar la solución a un problema”. Esta definición no se refiere, por supuesto, exclusivamente a problemas a ser resueltos por una computadora ya que la podemos aplicar a múltiples actividades, científicas o no. El origen etimológico de la palabra tiene que ver con un gran matemático de la Edad Media conocido como Al-Jwarizmi. Aunque los algoritmos datan de tiempos babilónicos y los griegos diseñaron algoritmos aún famosos (por ejemplo, el de Euclides para calcular el máximo común divisor de dos números), fue Al-Jwarizmi el primero que diseñó algoritmos pensando en su eficiencia para el cálculo de raíces de ecuaciones.



Mohammad Ibn Musa abu Djafar Al-Jwarizmi nació alrededor del año 780 en Jwarizm (la actual Khiva, en Uzbekistán), en Asia central. Su fecha exacta de nacimiento y muerte no son conocidas con exactitud, pero se sabe que realizó sus trabajos bajo los califatos de al-Ma`mun y al-Mu'tasim en Bagdad, alrededor de los años 813-833, y probablemente murió en Bagdad alrededor del año 840. Su nombre significa Mohamed, hijo de Moisés, padre de Jafar, el de Jwarizmi.

Al-Jwarizmi fue matemático, astrónomo y geógrafo; se le considera el fundador de varias ramas de las matemáticas y el que usó por primera vez determinados conceptos básicos en esta ciencia. Sus ideas influenciaron en varios matemáticos medievales.

A Al-Jwarizmi se le considera el inventor del Álgebra, palabra que deriva de su libro Kitab al-Jabr wa-al-Muqabilah ("El Libro de las Ecuaciones y las Integrales"), que fue traducido al latín en el siglo XII. Es una compilación de soluciones de ecuaciones, de geometría elemental y de métodos relacionados con cálculos comerciales y de herencias, además de sistematizar la resolución de ecuaciones cuadráticas. El trabajo está basado en la tradición matemática de Babilonia.

Su obra de Aritmética, traducida al latín como Algoritmi de numero Indorum introduce el sistema numérico indio (sólo conocido por los árabes unos 50 años antes) y los algoritmos para calcular con él. En ella sintetizó los conocimientos griegos e hindúes aportando él sus propios descubrimientos. Explicó el uso del cero, desarrolló el sistema decimal, introdujo el sistema numeral Indio (ahora conocido como números árabes), desarrolló operaciones matemáticas entre ellas las operaciones con fracciones, perfeccionó la representación geométrica de las cónicas y entre otras muchas cosas más desarrolló las tablas trigonométricas con la función seno. Fue a través de sus trabajos sobre el sistema decimal que se conoció en Europa la numeración ahora conocida como arábiga pero que como se ve es de origen hindú. También colaboró en hallar las medidas del volumen y del radio de la Tierra ordenado por Mamun al-Rashid. Las palabras guarismo (cifra, número) y algoritmo también provienen de su nombre.

El trabajo de Al-Jwarizmi permitió preservar y difundir el conocimiento de los griegos e indios. Rescató de los griegos la rigurosidad y de los indios la simplicidad (en vez de una larga demostración, usar un diagrama junto a la palabra mira). Sus libros son intuitivos y prácticos y su principal contribución fue simplificar las matemáticas a un nivel entendible por no expertos. En particular muestran las ventajas de usar el sistema decimal indio, un atrevimiento para su época, dado lo tradicional de la cultura árabe. La exposición clara de cómo calcular de una manera sistemática a través de algoritmos diseñados para ser usados con algún tipo de dispositivo mecánico similar a un ábaco, más que con lápiz y papel, muestra la intuición y el poder de abstracción de Al-Jwarizmi. Hasta se preocupaba de reducir el número de operaciones necesarias en cada cálculo. Por esta razón, aunque no haya sido él el inventor del primer algoritmo, merece que este concepto esté asociado a su nombre. Al-Jwarizmi fue sin duda el primer pensador algorítmico.






martes, 14 de agosto de 2007

Introducción

Este blog que iniciamos hoy tiene como finalidad la de servir de contacto entre mis alumnos de la Escuela de Ingeniería de Computación de la Universidad Rafael Urdaneta, en la ciudad de Maracaibo, República Bolivariana de Venezuela, y este servidor ing. Nerio Villalobos Finol, profesor de dicha Escuela, pero estará abierto a cualquier persona de cualquier edad, nacionalidad, sexo o nivel de instrucción que necesite y use una computadora en sus actividades de estudio, trabajo, comunicación y entretenimiento, vale decir, todo el mundo.

Por supuesto que la principal actividad de este blog será interactuar con mis alumnos a través de trabajos, proyectos y evaluaciones, pero también serán tratados temas que directa o indirectamente tengan relación con la Ciencia de la Computación. Por ejemplo, trataremos de incorporar cada semana una biografía de algún personaje importante en la historia de esta ciencia relativamente reciente, pero no menos llena de hechos relevantes y hasta curiosos.

Igualmente se procurará la incorporación de código fuente de programas en diferentes lenguajes, pues consideramos que la habilidad de programar nunca debe perderse, pues es la base de la computación. Estos programas seguramente vendrán como complementos de los temas tratados en cada artículo, incluso podrían formularse como proyectos.

Esperamos su colaboración y participación para que todos salgamos ganando, pues el aprendizaje nunca termina.




HORA DE VENEZUELA

VISITANTES RECIENTES

OTROS SITIOS

Sitios de Interés

URU

UNEFA

CNTI

CANAIMA

Luis Castellanos