menú responsive
AMÉRICA | Industria
-/5 | 0 votos

8º Simposio Internacional sobre tecnología espacial y sus aplicaciones

Inictel y la Universidad del Suroeste de Rusia desarrollan un microsatélite con fines educativos

11/10/2016 | Lima

Peter Watson

La representante de la Dirección de Investigación y Desarrollo Tecnológico del Instituto Nacional de Investigación y Capacitación de Telecomunicaciones (Inictel) de la Universidad Nacional de Ingeniería (UNI) del Perú, la ingeniera electrónica Vanessa Gamero, ha revelado que Inictel y la Universidad del Suroeste de Rusia trabajan juntos en el desarrollo de un microsatélite con fines educativos, en el marco de su exposición sobre plataformas para la compresión de imágenes en satélites de pequeño porte.

La expositora ha iniciado su presentación recordando el proyecto que lideró la UNI para el lanzamiento a órbita de un nanosatélite que se denominó Chasqui 1 y que fue lanzado desde la Estación Espacial Internacional a mediados del 2014. El satélite, de 10x10x10 centímetros y un kilogramo de peso, poseía dos cámaras a bordo, una de ellas de banda infrarroja, sistema de control de actitud, comunicaciones en banda de radioaficionados, celdas solares y sistema de gestión de componentes.

De acuerdo a la información de Norad, el nanosatelite Chasqui 1 decayó de su órbita el 15 de enero de 2015.

El acuerdo firmado para la construcción de un microsatélite, actualmente en desarrollo, contempla la integración de dos módulos preparados por Inictel-UNI, un sistema de cámara para captación de imágenes y una unidad de control experimental. Durante el proceso de planificación se estableció que el satélite sea colocado en órbita baja LEO (Low Earth Orbit) y se identificaron inconvenientes tales como limitaciones en el tiempo de descarga de data y en el ancho de banda para la transmisión de imágenes a la estación de control en la superficie.

Para solucionar las limitantes identificadas, Gamero indica que se ha decidido implementar un algoritmo de compresión de imágenes y se ha diseñado una plataforma de hardware que utiliza componentes COTS de disponibilidad comercial para la carga del algoritmo. La plataforma se ha basado en la experiencia obtenida con el microsatélite Arissat-1, que fuera lanzado desde la Estación Espacial Internacional en julio de 2011 y que dejara de transmitir en enero de 2012. Arissat-1 llevaba a bordo cámaras y emitía señales en radio frecuencia.

Plataforma de hardware y algoritmo de compresión de imágenes

La plataforma de hardware está compuesta por cámaras de video NTSC, microcontrolador PIC32MX360F512L, video códec ADV7180, memorias SRAM de 2 MB, la tarjeta FPGA Spartan-3 XC3S200, este último una herramienta de bajo costo, pertenece a una familia de módulos pensados para aplicaciones electrónicas con capacidades incrementales, su arquitectura se divide en cinco elementos funcionales programables: Bloques lógicos configurables, Bloques de Input/Output, Bloques de memoria RAM, Bloques Multiplicadores y Bloques de Gestión de Relojeo Digital. La tarjeta dispone de switches que interconectan los cinco elementos.

Gamero resalta que tras la digitalización de las imágenes generadas por las cámaras a bordo, el códec ADV7180 genera una imagen cruda (raw) de  720 x 480 pixels en un formato específico y se almacenan sin compresión en las memorias SRAM. Esta imagen es enviada por el FPGA al microcontrolador a través de un bus SPI donde ingresa al algoritmo de compresión.

El algoritmo a utilizar está basado en los algoritmos Biorthogonal Wavelet 3.7, que descompone la imagen original en una serie de señales de menor resolución con la suficiente cantidad de data para la reconstrucción de la imagen en la estación receptora, y en el codificador Huffman, que codifica las señales en una secuencia prederminada para un significativo ahorro de espacio. Así, la imagen original es descompuesta en tres niveles de profundidad que generan diez sub-bandas o diez sub-imágenes de diferente resolución, con bandas de aproximación y bandas de detalle.

Según Gamero, las pruebas realizadas demuestran que la tarjeta FPGA, funcionando a 200 Mhz, almacena la imagen en las memorias SRAM, removiendo los headers en blanco, así como el inicio y final de las señales generadas por el video códec. El microcontrolador, operando a 80 Mhz, envía la imagen a la computadora a través de un puerto serial, generándose con MatLab una imagen en formato Jpeg. MatLab es un  conocido software para análisis de data.

Debido a la arquitectura del microcontrolador PIC32 no se pueden superar velocidad de transmisión de datos de 1 Mbps y la descomposición de la imagen en tres niveles es una tares que consume bastante tiempo. Dependiendo de los detalles de la imagen capturada, la ejecución del algoritmo demora entre 12 a 20 minutos.

En atención a los resultados obtenidos, la especialista peruana señala que se está trabajando en este experimento desde el año pasado con los colaboradores de Rusia, que dispositivos de mayor desempeño como módulos Spartan-6 no son sencillos de obtener y que los rusos les han indicado que existen limitantes de potencia. Sin embargo, para reducir los excesivos tiempos de ejecución se pretende implementar la mayor parte del código de compresión en la tarjeta FPGA y se está considerando utilizar frecuencia de relojeo de mayor velocidad (higher clock frequencies).

Fotografía: Peter Watson

 © Information & Design Solutions, S.L. Todos los derechos reservados. Este artículo no puede ser fotocopiado ni reproducido por cualquier otro medio sin licencia otorgada por la empresa editora. Queda prohibida la reproducción pública de este artículo, en todo o en parte, por cualquier medio, sin permiso expreso y por escrito de la empresa editora.

SÍGUENOS EN


ENVÍO DE LA NOTICIA A UN AMIGO
Correo electrónico
Tu nombre
Mensaje