Vectorization of Large Amounts of Raster Satellite Images in a Distributed Architecture Using HIPI

Reading time: 5 minute
...

📝 Original Info

  • Title: Vectorization of Large Amounts of Raster Satellite Images in a Distributed Architecture Using HIPI
  • ArXiv ID: 1809.00235
  • Date: 2018-09-05
  • Authors: Researchers from original ArXiv paper

📝 Abstract

Vectorization process focus on grouping pixels of a raster image into raw line segments, and forming lines, polylines or poligons. To vectorize massive raster images regarding resource and performane problems, weuse a distributed HIPI image processing interface based on MapReduce approach. Apache Hadoop is placed at the core of the framework. To realize such a system, we first define mapper function, and then its input and output formats. In this paper, mappers convert raster mosaics into vector counterparts. Reduc functions are not needed for vectorization. Vector representations of raster images is expected to give better performance in distributed computations by reducing the negative effects of bandwidth problem and horizontal scalability analysis is done.

💡 Deep Analysis

Deep Dive into Vectorization of Large Amounts of Raster Satellite Images in a Distributed Architecture Using HIPI.

Vectorization process focus on grouping pixels of a raster image into raw line segments, and forming lines, polylines or poligons. To vectorize massive raster images regarding resource and performane problems, weuse a distributed HIPI image processing interface based on MapReduce approach. Apache Hadoop is placed at the core of the framework. To realize such a system, we first define mapper function, and then its input and output formats. In this paper, mappers convert raster mosaics into vector counterparts. Reduc functions are not needed for vectorization. Vector representations of raster images is expected to give better performance in distributed computations by reducing the negative effects of bandwidth problem and horizontal scalability analysis is done.

📄 Full Content

Uzaktan algılama; geomatik, enformatik, geofizik, harita mühendisliği, cartografya, vb. bilim alanlarında çeşitli çalışmalara (nesne çıkarımı/takibi/tanıma, uzamsal analizler, topolojik analizler, askeri ve sivil simulasyon uygulamaları, artırılmış gerçeklik uygulamaları vb.) yardımcı olmaktadır [1].

Uydu görüntülerinden nesne çıkarımı (yol, köprü, bina vb.) da uzaktan algılama görüntü işleme araştırma alanlarından biridir [2] [3]. Literatürde sulu alanlar içinde kalan bölgelerden kara parçalarının çıkarılması (ada gibi) [4] [5]veya kara parçaları üzerinde kalan sulu kısımların çıkarılması (göl, akarsu vs. gibi) nesne çıkarımı alt alanları içerisinde incelenmektedir [6] [8]. Bu çalışmada ada gibi nesnelerin kenar bulma tabanlı olarak çıkarılması ve vektörizasyonu incelenmektedir. Vektör hale getirilen görüntüler üzerinde uzamsal analizler yapmak ve bu görüntüleri makineler arası efektif bir şekilde transfer etmek mümkündür [9]. Uydu sensörlerinin uzamsal, spektral ve zamansal çözünürlüklerinin hızlı bir şekilde artması ile birlikte uydu görüntülerinin büyüklüğü ve karmaşıklığı da üstel olarak artmıştır. Görüntülerin boyutunun çok büyük olmasından dolayı onları işlemek için ihtiyaç duyulan işlem-gücü ve bellek büyüklüğü gereksinimi de artmaktadır. Bu da, işlemlerin tek makinada (merkezi) gerçeklenebilmesini imkansız kılmaktadır. Son zamanlarda bu tür büyük verilerin dağıtık ve paralel olarak işlenmesine olanak tanıyan Hadoop [10], Spark [11], H2O [12] gibi açık kaynak yazılımlar ve altyapılar araştırmacılar tarafından sunulmuştur.

MapReduce; dağıtık mimari üzerinde çok büyük verilerin kolay bir şekilde analiz edilebilmesini sağlayan bir yapıdır. 2004 yılında Google tarafından duyurulan bu sistem, daha eski yıllarda geliştirilen map ve reduce fonksiyonlarından esinlenilmiştir. Veriler işlenirken bu iki fonksiyon kullanılır. Map aşamasında ana düğüm verileri alıp daha ufak parçalara ayırarak işçi düğümlere dağıtır. İşçi düğümler işi tamamladıkça sonucu ana düğüme gönderir. Reduce aşamasında ise tamamlanan işler, işin mantığına göre birleştirilerek sonuç elde edilir. Kısacası; map aşamasında analiz edilen veri içerisinden almak istediğimiz veriler çekilir. Reduce aşamasında ise çekilen bu veri üzerinde istediğimiz analiz gerçekleşir. Apache Hadoop, datığık olarak veri işleme ve analiz imkanı sunan açık kaynaklı yazılımdır [13]. 2011 yılında yayınlanan Apache Hadoop, Java programlama dili ile yazılmıştır. Hadoop dört ana modülden oluşur. Ancak bu modüllerin dışında da datığık sistemler üzerinde çalışan birçok yazılımıda destekler. Hadoop’un ana modüllerinden biri olan MapReduce ile veri işleme ve analizi gerçekleştirilmektedir. MapReduce içerik olarak iki tip özel metodu barındırır. Bu metodlar map ve reduce metodlarıdır. Map metodu filtreleme ve sıralama, reduce metodu ise işlemsel toplamayı sağlamaktadır. MapReduce uygulamaları yapısal olarak metin tabanlı veri işleme ve analizine uygundur; ancak diğer tip verileri işlemek için map ve reduce metotlarında bir takım giriş ve çıkış formatlatının ayarlanması gereksinimi vardır. HIPI görüntü işleme kütüphanesi MapReduce paradigmasında imge dosyalarını işlemek için OpenCV kütüphanesiyle birlikte çalışan bir mimariyi sunmaktadır.

HIPI, Virginia Üniversitesinin Hadoop mimarisini temel alarak büyük boyuttaki görüntü verilerininin dağıtık olarak işlenmesini sağlayan bir altyapıdır [14]. Normal platformlarda büyük ölçekli görüntülerin işlenmesi oldukça zordur; ancak HIPI ile yapılan uygulamalar kullanıcıların büyük ölçekli görüntüleri kolayca işlemelerini sağlamaktadır. Şekil 1’de HIPI mimarisi gösterilmektedir.

Şekil. 1. HIPI mimarisi [15] HIPI mimarisinde bulunan modüller: (i) HIPI Image Bundle (HIB): HIPI mimarinin temel noktası bu kısımdır. Bu kısımda giriş olarak verilen birçok görüntü dağıtık dosya sisteminde tek bir HIB dosyası olarak tutulmaktadır. hibImport aracılığı ile birçok görüntüden HIB dosyası elde edilebilir. (ii) Culling Adımı: [24] büyük görüntü verilerini işlemek için hiyerarşik yapıda statitk ve dinamik görüntü bulutu işleme olmak üzere iki mekanizma içeren dağıtık bir alt yapı mimarisi önermişlerdir. Yaptığımız araştırmalara göre dağıtık uzaktan algılama görüntü işleme çalışmalarında düşük seviye görüntü işleme operasyonları (kenar bulma, gürültü azaltmakaldırma), çok azında da orta seviye operasyonlar gerçekleştirilmiştir. Gerçekleştireceğimiz uzaktan algılama görüntülerinin birleştirilmesi ve nesne çıkarma çalışmasında yüksek seviyeli görüntü işleme operasyonlarının dağıtılması söz konusudur. Bu yönden de çalışma farklılık göstermektedir. HIPI ile ilgili literatürde var olan çalışmalar sınırlıdır. Wilder ve arkadaşları [25] HIPI tüm görüntü formatlarını desteklemediğinden TIFF veya GeoTIFF formatındaki görüntüleri işleyebilmek için HIPI’ye eklenti geliştirmişlerdir.

LandSat 7 uydu görüntüleri üzerinde temel bileşen analizini test etmişlerdir. Basil ve arkadaşları [26] çok büyük çözünürlükteki cerrahi ameliyat videolarındaki kullanılan cerrah

…(Full text truncated)…

📸 Image Gallery

cover.png

Reference

This content is AI-processed based on ArXiv data.

Start searching

Enter keywords to search articles

↑↓
ESC
⌘K Shortcut