Por Jorge Ramírez, Presencia Universitaria
Con el objetivo dar a conocer los grandes aportes que brinda el uso de sensores satelitales para la obtención de datos estadísticos geográficos que contribuyen significativamente a prevenir y resolver problemas de las diferentes áreas de la ciencia, entre ellos la protección del medio ambiente, la agricultura, cambio climático, fenómenos meteorológicos, cuencas hidrográficas, problema de suelo, crear modelos de serie de tiempo, entre otros, el doctor Klaus Wiese, de la Escuela de Biología, impartió la conferencia: “Aprendizaje estadísticos aplicado a datos derivados de sensores remotos.
La ponencia formó parte del ciclo de conferencia correspondiente a la primera jornada científica “Big Data y computación de alto rendimiento y sus aplicaciones en la ciencia”, evento desarrollado por la Escuela de Física de la Facultad de Ciencias, a través de la plataforma de Zoom y retransmitido a través de Facebook Live.
El especialista inició su presentación describiendo algunos conceptos teóricos, desde que son aquellos datos espaciales (localización geográfica), sobre los principales formatos para registrar los datos espaciales de manera específica que son: vector y ráster (imagen que almacena datos en una matriz).
Además, expuso el papel preponderante en esta temática, por parte de del doctor John Snow, considerado como uno de los primeros analistas de los datos espaciales, quien destacó por su estudio sobre la problemática del cólera en Londres en el siglo XIX, vinculando los casos de pacientes con la posición geográfica de los posos donde la población consumía agua y que posiblemente estaban contaminados.
Asimismo, habló de los aportes de los investigadores Robert Fitzroy (predicción meteorológica), Alexander von Humboldt, Alfred Ruseell Wallece, Charles Darwin y Jesús Aguilar Paz, este último médico hondureño que identificó una serie de problemas en el área de la salud, haciendo uso de datos geográficos.
El doctor Wiese compartió con la audiencia temáticas relacionadas a los datos derivados de sensores remotos, mismo que se puede adquirir mediante la utilización de imágenes aéreas tomadas desde un avión, helicóptero, un drone e incluso desde un satélite espacial.
“Según el tamaño de pixel con el que cuenta una imagen, se tendrá una muy buena resolución de la imagen, como las imágenes satelitales cuando utilizamos el Google Earth, que tiene 60 centímetro cada pixel, donde nos permite identificar el color del techo de las casas, vehículos, incluso la copa de un árbol, hecho que nos permite diferenciar de este tipo de imagen”, explicó el conferencista.
Sobre esta herramienta detalló que resultan ser costosas, que año con año la imagen de un mismo punto va variando de acuerdo con las modificaciones que va creando el ser humano, sin embargo, ayudando a entender cuál es la dinámica de ese espacio específico, además, que permite observar imanes con resoluciones que van de un metro a 10 metro, permitiendo generar modelos de serie de tiempo.
“Imágenes que van de 10 a 30 metros que son los estándares que utilizamos para el análisis de los recursos naturales, algunas de las conexiones más famosas es el sensor LANDSAT que está funcionando desde los años 70 y que sigue siendo vigente a la fecha, el que toma una imagen del mismo espacio cada 15 días”, agregó.
Otro de los sensores y que está en funcionamiento desde el año 2014 es el Sentinel 2, que consta de dos satélites (que permite complementar los datos arrojados por el sensor LANDSAT), mismo que brinda información geográfica actualizada cada 15 días del mismo espacio, tiempo perfecto para ser el monitoreo de problemas relacionados a la agricultura, seguidamente habló de los demás sensores remotos en el mundo, como cada una de las características, los diferentes tipos de software y la infraestructura informática para el análisis de datos.
“Para ser sincero, en Honduras hay algunos lugares en los que encontramos de 24 imagen de la constelación LANDSAT una imagen totalmente limpia, tal es el caso de La Tigra o de nuestros bosques nublados, en general tenemos problemas. Por eso que un sensor esté pasando por un mismo lugar con mayor recurrencia ayuda, porque el pasar más veces tenemos mayores probabilidades que ese espacio que nosotros queremos analizar esté libre de nubes”, agregó.
En cuanto al almacenamiento, manejo, análisis e interpretación de información masiva generadas por los satélites, el experto señaló que aquí entra el mundo de la computación mediante el uso de los big data (software, hardware, ordenadores), que por lo general dicha información se estudia mediante en bloques.
“En los últimos años esta marca una tendencia el uso del big data, estamos viendo que está en boga del uso del big data, y en algunos casos hasta a ojos cerrados, y en este aspecto hay que tener mucho cuidado, ya que se ha identificado algunos problemas en el análisis espacial y el uso del big data”, comentó el conferencista.
Por otra parte, habló sobre el aprendizaje estadístico para predicción espacial, el uso del Machine Learning (aprendizaje automatizado), el uso de las nuevas tecnologías, sobre la técnica de la interpolación, lecturas continuas y discretas, donde se permite el cruce de variables, como de algunos errores específicos cuando se hace validación de tipo espacial, misma que se puede vincular con la información generada en la investigación de campo, los requerimientos financieros para desarrollar este tipo de proyectos investigativos, como un sinnúmero de aplicaciones disponibles en diferentes áreas de la ciencia.
Comentarios