Introducción

Una parte esencial de la física es la observación; la observación del mundo físico que está regido por leyes que se intenta develar. Parte del trabajo consiste en modelarlas matemáticamente para profundizar nuestra comprensión de la naturaleza, con el agregado de que podremos entonces intentar predecir resultados. El proceso de observación está íntimamente ligado al de medición, ya que al cuantificar una observación empezamos a conocerla mejor. Medir una propiedad es poder ponerle un número (o un intervalo de números) que nos dé una idea de su magnitud en función de una unidad que empleamos como patrón. Los hombres vienen realizando mediciones desde la prehistoria hasta la actualidad (como el conteo de los animales cazados, las proporciones y temperaturas para forjar aleaciones, la determinación de calendarios y eventos astronómicos, la carga del electrón, el tiempo de decaimiento de una substancia radioactiva o la anisotropía de la radiación cósmica de fondo). En todos estos casos fue necesario adquirir y manipular datos. Aquí veremos cómo esta actividad ha sido modificada radicalmente con la incorporación de las TIC.

Perspectiva histórica de la manera de adquirir datos

Salvo ciertas importantes excepciones (ligadas por ejemplo a la mecánica cuántica) las magnitudes físicas suelen ser variables analógicas. Esto quiere decir que pueden adoptar cualquier valor intermedio entre dos valores posibles.

Digamos que si medimos la velocidad de un auto que aceleró de 0 a 100 km/h esperamos que adopte todos los valores posibles entre 0 y 100, como nos lo mostraría el velocímetro, que es en general un instrumento a aguja. Los instrumentos de medición que se empleaban tradicionalmente eran instrumentos a aguja u otros indicadores sobre escalas graduadas, donde el investigador realizaba una lectura del valor que la medición indicaba y luego anotaba este número en un cuaderno de notas, también llamado bitácora.

Este proceso de medición presentaba una serie de inconvenientes. Primeramente dependía de la agudeza visual del observador, ya que podía cometer errores de apreciación (observando mal los números) o de paralaje (al no mirar bien enfrentado el indicador que fija el número sobre la escala graduada) y, finalmente, podía equivocarse al anotar el número en su bitácora. Por otra parte, ¿cuántas mediciones podría realizar a lo largo de una hora o durante varios días, tratando de captar la evolución de un determinado proceso? ¿Con qué minuciosidad registraría la forma de una curva, perdiendo eventualmente detalles de importancia?

cuaderno de notas de Pierre y Marie Curie (1902)

En la figura se observa el cuaderno de notas de Pierre y Marie Curie (1902), donde se pueden notar las escrituras de los dos científicos, así como los cálculos que iban realizando sobre las mediciones efectuadas. También se destaca la marca de un dedo que probablemente dejó impregnado el papel con material radioactivo (del instituto Curie).

Como dijimos, al emplear un instrumento para medir una magnitud física, lo que hacemos es comparar el valor de la lectura que obtenemos con el de algún patrón que nos sirve de referencia. Cuando medimos por ejemplo el peso de un objeto podemos emplear una balanza tradicional, donde equilibrando dos brazos, obtenemos, por comparación con unidades o subunidades del kg, el valor de la masa del objeto. Si quisiéramos realizar un experimento en el que nos interese registrar la evolución del peso de este objeto en función del tiempo o de la temperatura, esta lectura «visual» y analógica que nos provee la balanza no resulta práctica a la hora de intentar adquirir las mediciones en forma automática, sin la intervención humana. Para ello se emplea un transductor, que es un dispositivo que convierte las variaciones de los parámetros a medir en señales eléctricas. Para el ejemplo de la balanza, podríamos emplear un material piezoeléctrico que tiene la propiedad de producir una diferencia de potencial al aplicarle una deformación mecánica. Así, la compresión producida por el peso del objeto a pesar será traducida proporcionalmente a un voltaje.

Definitivamente para el caso de mediciones de magnitudes físicas las señales eléctricas son más fáciles de manejar como información que, por ejemplo, las imágenes, ya que estas contienen una gran cantidad de información (no relevante). Las señales eléctricas tienen la ventaja de que pueden ser adquiridas mediante registradores XY. Estos equipos, comúnmente empleados en los tradicionales sismógrafos o para obtener electroencefalogramas, tienen una punta (o varias) cuyo desplazamiento vertical, proporcional a un voltaje entrante, se dibuja en un papel que es arrastrado a velocidad constante y que representa el paso del tiempo. Como su nombre lo indica, estos equipos también permitían graficar una variable (Y) en función de otra (X) y obtener así, sobre papel, la función Y(X). El osciloscopio (tubo de rayos catódicos) inventado a fines del siglo XIX, también es un graficador XY cuyos registros podían ser guardados mediante fotografías de su pantalla, pero con la gran ventaja adicional de que permitió acceder a la medición de señales de alta frecuencia o de pulsos de muy corta duración (inicialmente ms, µs en los 70, ns en 2001).

Muchos instrumentos eléctricos de medición, como voltímetros, galvanómetros, etc., empleados durante el siglo XX previamente al uso de las computadoras para la adquisición de datos, permitían manejar un registro de las mediciones realizadas gracias al uso de un registrador XY, ya que incluían, dentro de sus funciones, una señal de salida proporcional al valor de la lectura realizada. De esta manera, los científicos pudieron guardar un registro detallado de las mediciones que realizaban, no sólo tomando un dato cada tanto, sino manteniendo un registro completo de la evolución en el tiempo de la magnitud medida.

Como veremos a continuación, las TICs han modificado la manera en que los científicos adquieren y manipulan datos en la actualidad.

Las nuevas tecnologías. Automatismo y control

Las computadoras procesan y transfieren información manejando un lenguaje basado en el sistema binario. Esto es un sistema de numeración en base 2, que sólo maneja números cuyas cifras están compuestas por «0» y «1». Desde el punto de vista de los circuitos de las computadoras, estos números se representan por dos posibles estados de voltaje: bajo (0 volt) y alto (5 volt). Si quisiéramos entonces que una computadora adquiera señales analógicas, como las que mencionamos que registra un velocímetro (o un voltímetro, etc.), entonces primero tendríamos que traducirlas al sistema binario o, lo que es lo mismo, deberíamos digitalizarlas.

Para ello se emplea un conversor analógico-digital (ADC), que es un dispositivo electrónico capaz de convertir un voltaje eléctrico en un número binario. Los ADC a su vez asignan a las variaciones de voltaje un número que puede ser leído en una computadora (mediante un software) y se interpreta como el valor de la medición. La resolución es uno de los parámetros que caracteriza un ADC. La misma está dada por el número de bits con el cual opera y se relaciona con el número de particiones en las que se divide el rango de voltaje del ADC. Se define el LSB (del inglés, el bit menos significativo) como la variación de voltaje que produce un cambio en una unidad en la salida del ADC o, en otras palabras, el rango de voltaje asignado a cada bit. Su valor dependerá del número (n) de bits del ADC, como también del rango máximo de voltaje (VR) en el que trabaja. Generalmente el ADC también amplifica la señal de entrada antes de asignarle el entero correspondiente. Si llamemos A a este factor de amplificación, el LSB estará dado por: LSB = VR / (A.2n).

Si tomamos como ejemplo un ADC de 3 bits (n = 3) que trabaja en un rango de 8 volt (VR = 8 V) y no amplifica la señal (A = 1), se obtiene a partir de la ecuación anterior, un LSB de 1 volt, como se ve en la siguiente figura:

Aquí vemos el diagrama del proceso de asignación de un número binario en un ADC de 3 bits que trabaja en un rango de - 4 / +4 volt. Suponiendo que la señal de entrada no es amplificada (A = 1), se tiene que LSB = 8V / 23 = 1V.

Los ADC fueron una de las vías posibles para eliminar la brecha que existía entre instrumentos de medición y las computadoras, dando lugar a instrumentos de medición que pueden conectarse directamente en las ranuras internas de una computadora (slots). Estos instrumentos, llamados tarjetas de adquisición, se caracterizan, según mencionamos, por el número de bits que emplean para la conversión ADC, así como por la frecuencia de muestreo, el rango de voltajes máximos (amplificación) y el número de canales que se miden en paralelo. De esta manera, gracias al uso de un programa, el usuario puede realizar mediciones automatizadas, registrando señales con resolución suficiente y con una frecuencia de toma de datos adecuada para registrar con detalle las evoluciones temporales que se deseen, dentro de los límites disponibles (ancho de banda).

veloc_muestreo

(Adaptado del manual de Instrumentación y control de National Instruments). Relación de compromiso entre la velocidad de muestreo y la resolución del instrumento. Se comparan las tarjetas de adquisición (ADC) con instrumentos electrónicos conectados a computadoras.

Otra vía de adquisición controlada por computadoras que se desarrolló en paralelo está relacionada con el manejo, a través de una interface y de un protocolo de comunicación, de instrumentos de medición analógicos como por ejemplo un frecuencímetro o un puente de resistencias. El objetivo era poder controlar o adquirir las señales que estos instrumentos medían, que era la tarea específica para la que habían sido diseñados. La interface RS232, desarrollada en 1960 por la Electronic Industries Associations, convertida en un estándar en 1967 y revisada en 1987, aportó una solución a esta necesidad, que todavía resulta válida hoy en día. Casi la totalidad de los instrumentos de medición que se conectan a las computadoras para adquisición y control tienen esta interface, presente de igual modo en forma estándar en cualquier PC (la conexión para el mouse es una RS232). La RS232 es una interface serie, lo cual implica que va entregando cada bit en forma secuencial, uno tras otro. Para asegurarse de que ningún bit se pierda, ya sea de una orden de la computadora para que el instrumento mida determinada magnitud, o en determinado rango, etc., o de mediciones que el instrumento le transfiere a la computadora, existen otros bits que marcan el inicio y el final de una entrega de 7 u 8 bits. Para que todo funcione bien, hace falta que el instrumento y la computadora estén de acuerdo en la velocidad de transmisión y en el tamaño de los paquetes a transmitir, así como de las terminaciones a emplear. Uno de los inconvenientes de la RS232 es que puede resultar relativamente lenta (con velocidades de transmisión de 600, 1200, 2400, 4800, 9600, 19200 o 38400 bits por segundo), y que puede comunicarse con un solo instrumento por conexión.

Durante los años 70, la empresa Hewlett-Packard (HP) desarrolló otro tipo de interface, mucho más rápida (transmite a algo más de 1 Mbit/s) y con la posibilidad de controlar varios instrumentos en paralelo (¡hasta 15!). Esta interface, llamada originalmente HP-IB, convertida en un estándar en 1978 como GPIB-IEEE488 y revisada en 1987, conforma otra de las vías más empleadas para controlar varios instrumentos mediante una computadora. El bus de transmisión esta compuesto por 16 líneas que se agrupan en tres grupos según su función, ya sea de control, de datos o de uso general.

El uso de tarjetas de adquisición ADC o de interfaces como la RS232 o la IEEE488 permitió que los científicos pudieran entonces controlar y adquirir datos experimentales mediante una computadora y el programa adecuado (quick basic, Labview, etc.), evitando el error humano en la toma y transcripción de datos, permitiendo la reducción del ruido y el aumento de la resolución experimental al poder adquirirse un gran número de datos y emplear entonces métodos estadísticos, mejorando las condiciones sistemáticas en las que se realizan los experimentos y facilitando el procesado y el análisis de los resultados mediante programas que proveen las herramientas matemáticas para ello. Experimentos largos son entonces controlados durante las 24 hs., los días que sea necesario, y con la posibilidad de monitorear vía internet (remotamente) su evolución. También existen hoy en día instrumentos que guardan un registro de sus mediciones sin tener que estar conectados a una PC. Los datos son almacenados en una tarjeta de memoria portátil y luego pueden ser transferidos fácilmente a una PC por medio del puerto USB.

Por todo ello, sin duda alguna las TIC revolucionaron la manera en que la ciencia observa al mundo físico.