أكثر

NDVI من بيانات تدريب Sentinel-2 الخاصة بـ ESA

NDVI من بيانات تدريب Sentinel-2 الخاصة بـ ESA


أحاول إنشاء خريطة NDVI باستخدام صور تدريب Sentinel-2 من ESA ، والتي يمكن العثور عليها على https://spot-take5.org. حاولت استخدام الآلة الحاسبة النقطية لـ QGIS لإنشاء صورة NDVI ، ولكن لم تنجح تمامًا ، حيث لا يمكنني معرفة كيفية توافق النطاقات مع الأساسياتNDVI = (NIR - VIS) / (NIR + VIS)معادلة. أي برنامج نصي من Python أو أداة مجانية أخرى يناسبني أيضًا.


بادئ ذي بدء ، يجب أن تلاحظ أن صور Sentinel-2 المحاكاة تأتي من القمر الصناعي SPOT 4 (وربما SPOT 5). لذلك سيكون لديك نطاقات أقل من تلك الموجودة في Sentinel-2 الفعلي. بالنسبة لـ SPOT 4 و 5 ، تكون النطاقات

B1 = أخضر ، B2 = أحمر ، B3 = NIR ، B4 = SWIR

ثانيًا ، يكون NDVI غالبًا (NIR-RED) / (NIR + RED) ، ويجب عليك التأكد من أن لديك انعكاسات من أجل العمل مع قيم NDVI المماثلة.

Float (image @ 3-image @ 2) / Float (image @ 3 + image @ 2)

التحديث (الآن بعد أن أصبحت بيانات Sentinel-2 "الحقيقية" متوفرة): مع Sentinel-2 ، بالنسبة لـ 10 m NDVI ، يكون اللون الأحمر هو النطاق 4 و NIR هو النطاق 8


1 الصلة بالموضوع

تعد القدرة على مراقبة حالة الأمن الغذائي شرطًا حاسمًا للحد من الجوع. لهذا السبب ، يقوم برنامج الغذاء العالمي (WFP) بإجراء مسوحات منزلية بشكل مستمر. ومع ذلك ، فإن الصعوبات وتكلفة جمع البيانات وجهًا لوجه في المناطق النائية أو غير الآمنة تعني أن التقديرات ممثلة فقط بدقة منخفضة - عادةً تجميع على مستوى المنطقة أو المنطقة. من أجل تخصيص الموارد بشكل أكثر كفاءة ، يحتاج برنامج الأغذية العالمي والجهات الفاعلة الإنسانية الأخرى إلى خرائط أكثر تفصيلاً.

الهدف الرئيسي من مبادرتنا هو الاستفادة من البيانات الجغرافية المكانية المفتوحة لاستخدامها في تقييمات برنامج الأغذية العالمي وغيره من القطاعات الإنسانية وجعلها في متناول مجموعة واسعة من المستخدمين. في سياق برنامج الأغذية العالمي و rsquos ، يعني هذا تمكين المستخدمين من إنتاج خرائط دقيقة للأمن الغذائي.

يعتمد نهجنا على النتائج الأخيرة التي توصلت إليها مجموعة بحثية من ستانفورد حول كيفية استخدام التعلم الآلي وصور الأقمار الصناعية عالية الدقة جنبًا إلى جنب مع بيانات المسح للتنبؤ بمؤشرات الفقر في المناطق الصغيرة (Head، Manguin، Tran، & amp Blumenstock، 2017 Jean et آل ، 2016). اختبرنا نهجنا لمجموعة متنوعة من دراسات الحالة القطرية بناءً على بيانات مسح البنك الدولي وبرنامج الغذاء العالمي.

تساهم النتائج في الأدبيات الحالية فيما يتعلق بثلاث نقاط رئيسية: أولاً ، من خلال الجمع بين المزيد من البيانات القيمة مفتوحة المصدر ، مثل معلومات OpenStreetMap والإضاءة الليلية ، مع التعرف على الصور المستندة إلى بيانات الأقمار الصناعية ، وترجيحها حسب البيانات السكانية ، نحن قادرة على مزيد من تنقيح نتائج التنبؤ لمؤشرات الفقر. ثانيًا ، من خلال تطبيق النموذج على مؤشرات الأمن الغذائي ، نقوم بتوسيع استخدام الخرائط عالية الدقة للجهات الفاعلة في المجال الإنساني. ثالثًا ، نقوم بزيادة تفعيل نتائج البحث من خلال جعل النتائج سهلة الوصول إلى صانعي السياسات من خلال تطبيق قائم على الويب.

2 الأدبيات الموجودة حول رسم الخرائط ذات الدقة المكانية العالية

تم استخدام مناهج مختلفة لرسم خريطة للمؤشرات الاجتماعية والاقتصادية بدقة مكانية عالية. تعتمد هذه الأساليب عمومًا على بيانات المسح كحقيقة أساسية لتقدير وتقييم النماذج الإحصائية وتركز في الغالب على مؤشرات الفقر. ومع ذلك ، فإن مجموعة المتغيرات المشتركة والتقنيات المستخدمة لاستخراج هذه المتغيرات تختلف على نطاق واسع.

يشار إلى الأسلوب الإحصائي الأكثر شيوعًا باسم تقديرات المساحة الصغيرة (SAE ، Elbers ، Lanjouw ، & amp Lanjouw ، 2003). وهو يتألف من تركيب نموذج يربط المتغير المستهدف المعني بمجموعة من المتغيرات المشتركة ذات الصلة التي تم جمعها من خلال بيانات المسح وتطبيق هذا النموذج على نفس مجموعة المتغيرات المشتركة في بيانات التعداد (حيث لم يتم قياس المتغير المستهدف). عادة ما تكون أعداد السكان في التعداد متاحة على مستوى إداري صغير جدًا ، والتنبؤات الناتجة تقلل من النتائج. على سبيل المثال ، أنتج برنامج الأغذية العالمي تقديرات المناطق الصغيرة لمؤشرات الأمن الغذائي في بنغلاديش (جونز وهاسلت ، 2003) ونيبال (جونز وهاسلت ، 2006 و 2013) وكمبوديا (هاسليت ، جونز وسفتون ، 2013). ومع ذلك ، من الصعب تطبيق هذه التقنية في أفريقيا جنوب الصحراء الكبرى لأنها تتطلب بيانات تعداد حديثة وموثوقة. كما أنه يعتمد على افتراض أن مجموعة المتغيرات المشتركة قد تم قياسها بنفس الطريقة في كل من بيانات المسح والتعداد.

لم تكن بيانات التعداد متاحة ، فقد استخدم الباحثون البيانات الجغرافية المكانية لعمل تنبؤات بدقة مكانية عالية. البيانات الجغرافية المكانية هي بيانات شبكية لمتغيرات مشتركة متنوعة ، مثل المناخ أو إمكانية الوصول أو البيئة أو السمات الطبوغرافية. غالبًا ما يتم اشتقاق هذه المتغيرات المشتركة الشبكية من جهاز تصوير القمر الصناعي y ، وبالتالي فهي متوفرة عالميًا بدقة عالية. وجد باحثو WorldPop أن هذه المتغيرات الجغرافية المكانية قادرة على التنبؤ بالتوزيع الجغرافي للسكان وخصائص السكان (العمر ، المواليد ، إلخ) بشكل جيد. على وجه الخصوص ، كانت النماذج المدربة على تعداد السكان قادرة على رسم خريطة لتوزيع السكان بدقة 100 مليون في غالبية دول العالم (Alegana et al.، 2015 Tatem، 2014).

كما تم استخدام البيانات الجغرافية المكانية لنمذجة مؤشرات التنمية المصنفة حسب الجنس في أربعة بلدان أفريقية وكذلك مؤشرات الفقر في مجموعة متنوعة من البلدان. تأتي بيانات الحقيقة الأساسية من برنامج المسوحات الديموغرافية والصحية (DHS) ودراسة قياس معايير المعيشة (LSMS) التابعة للبنك الدولي و rsquos. ترتبط تقييماتهم بالمتغيرات الجغرافية مع إحداثيات GPS للمسح المتوفرة على مستوى الكتلة. يشار إلى هذه الطريقة باسم النهج التصاعدي. في دراسة أجريت في بنغلاديش ، ستيل وآخرون. (2017) استخدمت أيضًا ميزات البيانات الوصفية للهاتف المحمول المتوفرة على مستوى برج الهاتف الخلوي كمتغيرات مشتركة إضافية للتنبؤ بالفقر.

أخيرًا ، استخدمت مجموعة في جامعة ستانفورد (جان وآخرون ، 2016) نماذج التعلم الآلي للتعرف على الصور لاستخراج الميزات من صور الأقمار الصناعية عالية الدقة. وتوقعوا مؤشرات الفقر (مؤشر الثروة والنفقات) في خمسة بلدان أفريقية بالملامح المستخرجة. هذه التقنية المعروفة باسم Transfer Learning معقدة: يتم تدريب الشبكات العصبية التلافيفية على تصنيف شدة ضوء الليل من صور الأقمار الصناعية ويتم استخراج الميزات من الطبقات الوسيطة للشبكات المدربة. ثم يتم إدخال هذه الميزات في نموذج خطي تقليدي. بيانات الحقيقة الأساسية هي أيضًا بيانات LSMS و DHS المجمعة في موقع مجموعة المسح. تم تكرار هذا النهج منذ ذلك الحين مع مجموعة أوسع من المؤشرات والبلدان (Head، Manguin، Tran، & amp Blumenstock، 2017).

الهدف الرئيسي من هذه الورقة هو المساهمة في البحث الحالي من خلال محاولة توحيد الأساليب المختلفة في محاولة لإنشاء عملية تلقائية يمكن تطبيقها على مؤشرات الأمن الغذائي المختلفة التي يجمعها برنامج الأغذية العالمي. لقد اخترنا مصادر البيانات المتاحة عالميًا وبرمجيًا وقمنا ببناء خط أنابيب لمعالجة البيانات واستخراج المتغيرات المشتركة. وبشكل أكثر تحديدًا ، فقد ابتكرنا الأساليب الحالية من خلال:

  1. اختبار رسم خرائط عالية الدقة لمؤشرات الأمن الغذائي الأساسية لبرنامج الأغذية العالمي (درجة استهلاك الغذاء (FCS) ونفقات الغذاء)
  2. الجمع بين نهج التعلم & ldquotransfer & rdquo مع البيانات الشبكية الجغرافية لاستخراج مجموعة أوسع من الميزات التي تؤدي إلى نتائج أكثر استقرارًا.
  3. تكييف نهج التعلم & ldquotransfer & rdquo لاستخدام مصادر مختلفة من الصور المتاحة بشكل متكرر (Sentinel 2) وتدريب الشبكات العصبية الأخف وزناً لزيادة الكفاءة الحسابية.
  4. تكييف نماذج البيانات & ldquogeographic & rdquo لاستخراج المتغيرات المشتركة الشبكية برمجيًا من مصادر البيانات المفتوحة المختلفة باستخدام مجموعة معينة من المعلمات.
  5. بناء نموذج مجموعة تنبؤ بسيط يحسب متوسط ​​التنبؤات من نموذج انحدار خطي ونموذج انحدار k-Nearest Neighbor لحساب الارتباط التلقائي المكاني.
  6. تطوير قاعدة كود معيارية مفتوحة المصدر لتكرار البحث وتسمح بإضافة ميزات ونماذج جديدة.
  7. إنشاء تطبيق ويب سهل الاستخدام يسمح للمستخدمين بتقييم الطريقة على مجموعة البيانات الخاصة بهم والموجودة جغرافيًا وتعيين نتائج التنبؤ بالأشعة تحت الحمراء تلقائيًا.

نهج قائم على بايز للنمذجة المكانية والزمانية لانتشار عدوى البلهارسيا اليابانية على مستوى المحافظة في مقاطعة جيانغسو ، الصين

تم فحص الاختلافات المكانية والزمانية لخطر الإصابة بالبلهارسيا اليابانية في مقاطعة جيانغسو ، الصين ، وتم تحديد العلاقات بين العوامل المناخية الرئيسية وانتشار العدوى على مستوى المحافظة. تم جمع البيانات الطفيليات سنويًا عن طريق المسوحات المقطعية التي أجريت في 47 مقاطعة في الفترة من 1990 إلى 1998. تم الحصول على العوامل المناخية ، وهي درجة حرارة سطح الأرض (LST) ودليل الغطاء النباتي الطبيعي (NDVI) ، من أجهزة الاستشعار الساتلية للاستشعار عن بعد. تم استخدام نماذج بايز المكانية الزمانية لتحليل البيانات. أظهر أفضل نموذج ملائم أن الارتباط الذاتي المكاني في مقاطعة جيانغسو انخفض بشكل كبير من عام 1990 إلى عام 1992 وازداد تدريجياً بعد ذلك. ينشأ تفسير محتمل لهذه النتيجة من إعطاء البرازيكوانتيل على نطاق واسع لمكافحة مراضة داء البلهارسيات. اقترح تحليلنا وجود ارتباط سلبي بين NDVI وخطر الإصابة بعدوى S. من ناحية أخرى ، ساهمت زيادة LST في زيادة معنوية في انتشار عدوى S. japonicum. نستنتج أن الجمع بين نظام المعلومات الجغرافية والاستشعار عن بعد والأساليب الإحصائية المبنية على أساس بايز يسهل نمذجة المخاطر المتكاملة لـ S. japonicum ، والتي بدورها لها صلة بتخصيص الموارد النادرة لمكافحة داء البلهارسيات اليابانية في مقاطعة جيانغسو وأماكن أخرى في الصين ، حيث لا يزال المرض ذا أهمية للصحة العامة والاقتصاد.


خطوات إنشاء منتج HLS

هناك عدد من خطوات المعالجة في سير عمل HLS بما في ذلك تصحيح البيانات في الغلاف الجوي ، والتسجيل الجغرافي ، والتعديل لاختلافات الانعكاس ثنائي الاتجاه. رصيد الصورة: NASA Earthdata HLS Science Team.

هناك أربع خطوات متضمنة في معالجة HLS ، حيث تمر كل من بيانات Landsat و Sentinel-2 بالخطوات الثلاث الأولى ، بينما يمر Sentinel-2 بالخطوة الرابعة (انظر الرسم التوضيحي للمعالجة). لقد تطورت هذه المعالجة بشكل كبير منذ بدء الجهد وتضم عدة مجموعات. قبل الإصدار العام المؤقت ، تمت معالجة البيانات في مركز أبحاث أميس التابع لوكالة ناسا في سيليكون فالي ، كاليفورنيا ، باستخدام بيئة حوسبة NASA Earth Exchange (NEX). هذا الإصدار السابق من HLS (الإصدار 1.4) رسم خرائط لما يقرب من 28٪ من سطح الأرض وتم أرشفته في مركز جودارد لرحلات الفضاء التابع لناسا في جرينبيلت بولاية ماريلاند.

على الرغم من أن HLS كانت لا تزال في مرحلة النموذج الأولي وتغطي أقل من ثلث مساحة سطح الأرض ، كانت القيمة المحتملة لمجموعة البيانات هذه واضحة للمجتمع العلمي ، بما في ذلك أعضاء مجموعة عمل المستخدمين (UWG) التابعة لـ LP DAAC. LP DAAC هي المسؤولة عن أرشفة وتوزيع البيانات في مجموعة EOSDIS المتعلقة بالغطاء الأرضي واستخدام الأراضي. DAAC هي شراكة بين NASA و USGS ، وتقع في USGS Earth Resources Observation and Science Centre (EROS) ، حيث تتم معالجة بيانات Landsat.


تصنيف الغطاء الأرضي باستخدام تقنيات التعلم الآلي & # 8211 مسح

الخلاصة: - يتم إنتاج كمية هائلة من البيانات المكانية بسبب توفر تقنية قاعدة السحابة مثل المعلومات الجغرافية وصور الأقمار الصناعية وتحليل صور الاستشعار عن بعد. يجب مراقبة موارد الأرض وتقييمها وإدارتها. يعتبر تصنيف الغطاء الأرضي على أساس صور الاستشعار عن بعد وسيلة مهمة لتمكين ذلك. الهدف من هذا البحث هو مراجعة الأدبيات لتصنيف سمات الغطاء الأرضي باستخدام تقنيات التعلم الآلي.

الكلمات المفتاحية: تصنيف أغطية الأرض ، تعلم الآلة

الاستشعار عن بعد هو عملية المراقبة والتعرف على الخصائص الفيزيائية لمنطقة ما عن طريق قياس الإشعاع الذي تم اعتباره وإصداره على مسافة من المنطقة المستهدفة. تساعد تقنيات التعلم الآلي في الاستشعار عن بعد لتصنيف وتحليل بيانات الاستشعار عن بعد لتصنيف الغطاء الأرضي. تصنيف الصور من نوعين: طرق تصنيف خاضعة للإشراف وغير خاضعة للرقابة. تشكل أطر الاستخبارات الإحصائية والحسابية الأساس لخوارزميات التصنيف المختلفة الخاضعة للإشراف. إن التوافر المتزايد للتكنولوجيا الحديثة مثل صور الأقمار الصناعية والمعلومات الجغرافية ونظام التحليل ونظام تحديد المواقع العالمي هي أدوات تسمح بإنتاج بيانات مكانية موثوقة. يعد استخدام صور الاستشعار عن بعد لتصنيف الغطاء الأرضي وسيلة مهمة للكشف عن موارد الأراضي وتقييمها وإدارتها.

يشرح تصنيف Landcover ميزات الأرض المختلفة الموجودة على سطح الأرض. تشير الأرض المستخدمة لأغراض مختلفة مثل الزراعة في المنطقة السكنية والمنطقة الصناعية والغطاء الأرضي إلى نوع الأرض المادي مثل المسطحات المائية والغابات والمنطقة الحضرية والغطاء النباتي. يتمثل أحد الحلول الممكنة لاستخراج معلومات الغطاء الأرضي في تصنيف الصورة التي تم الحصول عليها من الاستشعار عن بعد. تقدم ورقة المراجعة هذه مسحًا للأوراق البحثية التي تطبق تقنيات التعلم الآلي وتحليل الصور لتصنيف الغطاء الأرضي.

يهدف المؤلفون في [1] إلى إلقاء الضوء على مختلف القضايا المجتمعية المتعلقة بالبيانات الجغرافية المكانية مثل إدارة المياه والأمن الغذائي وحماية البيئة والجفاف والكوارث ومراقبة المناخ. هذه القضايا أيضا قادرة على إحداث تأثير كبير جدا. يقدم المؤلفون كل كتالوج بيانات المعرفة لمجموعة بيانات محرك الأرض Goggle ، وبنية النظام ، وفهرس الاستشعار عن بعد. تم استخدام مؤشرات الاستشعار عن بعد وخاصة مؤشر الغطاء النباتي المحسن EVI لتحليل كيفية تغير الغطاء الأرضي. ال

فائدة استخدام المحرك الأرضي هي أنه يمكن للمستخدم العمل في بيئة معالجة متوازية.

في [2] ، قام المؤلف بتقييم منصات الاستشعار عن بعد القائمة على السحابة ، وكذلك مدى جودة عمل Google Earth Engine (GEE) مثل واحد. كما تم استكشاف مدى قدرتها على تنفيذ تجميعات زمنية ومكانية متزامنة عبر مجموعة من صور الأقمار الصناعية. ركز المؤلفون الذين يستخدمون مؤشرات EVI على التحديات الموجودة في منطقتين فرعيتين في سنغافورة. قام المؤلف بتقييم التغييرات في الغطاء الأرضي والجهد الحسابي العالي داخل GEE أثناء إجراء تحليل السلاسل الزمنية لمناطق الأرض الصغيرة.

في [3] ، مينجيت وآخرون. استخدام طرق التصنيف لرسم خرائط دقيقة لفئات الغطاء الأرضي هي الخوارزمية الجينية والغابات العشوائية (RF). الخوارزمية الجينية هي طريقة بحث إرشادية مطبقة في الذكاء الاصطناعي. أصبحت شائعة من خلال أعمال جون هولاند في أوائل (1975). تعد Random Forest تقنية تصنيف قوية جدًا للتعلم الآلي. كما تم استخدامه في الاستشعار عن بعد. يحتوي تصنيف الغابة العشوائية على معلمتين & # 8211 العديد من الأشجار وعدد المتغيرات التي جربت كل تقسيم. تتأثر دقة التصنيف في الغابة العشوائية بهذه المعلمات. هنا ، يكون الاختيار ممكنًا تجريبيًا بالإضافة إلى الكشف عن مجريات الأمور.

في [4] ، قام المؤلفون بتقييم مؤشرات الغطاء النباتي (EVI ، NDVI ، NDWI ، إلخ). من المنصة السحابية القائمة على الاستشعار عن بعد ويستخدم خوارزميات فعالة لتقييم الغطاء النباتي. تم تنفيذ مؤشرات الاستشعار عن بعد في تطبيقات الاستشعار عن بعد بمساعدة مجموعات البيانات الساتلية المختلفة. لا يوجد تعبير رياضي مدمج ، يحدد في محرك Google Earth للوصول إلى جميع مؤشرات الغطاء النباتي. لذلك قام المؤلف هنا بمراجعة العديد من مؤشرات الغطاء النباتي بسبب تعقيد المنصات ، والضوء المختلف ، والقرارات. في هذه الورقة ، راجع المؤلف أكثر من 100 مؤشر نباتي.

يقدم Onisimo Mutanga و Lalit Kumar في [5] معلومات حول تطبيق Google Earth Engine. من الممكن تخزين ومعالجة عدد كبير من مجموعات البيانات ، لأغراض التحليل واتخاذ القرار ، بسبب النظام الأساسي القائم على السحابة والذي يطلق عليه Google Earth Engine المصمم خصيصًا له. يتم توفير التوافر المجاني لسلسلة Landsat من خلاله. بعد تخزين جميع مجموعات البيانات ، تقوم Google بعد ذلك بربطها بمنصة الحوسبة السحابية لاستخدامها بطريقة مفتوحة المصدر. يتم حاليًا تخزين بيانات الأقمار الصناعية ونماذج الارتفاع الرقمية لأنظمة المعلومات الجغرافية (GIS) وطبقات البيانات الديموغرافية والمناخية ومجموعات بيانات المتجه المستندة إلى Google. المستعمل-

يتم توفير الواجهة الأمامية الودية والتي يسهل الوصول إليها من خلال تطبيق GEE. كما أنه يضمن وجود بيئة ملائمة لتطوير البيانات والخوارزميات التفاعلية. إضافة وامتلاك البيانات والمجموعات ، بالإضافة إلى تطبيق خوارزمية الغطاء الأرضي وتحليل تغير الأرض والتصنيف وتحليل تغير الطقس ، كلها ممكنة حتى عند المستخدمين & # 39 نهاية.

في [6] ، يستكشف المؤلفون امتصاص واستخدام منصة GEE. تم إجراء هذا الاستكشاف بشكل أساسي من حيث مجموعات البيانات المستخدمة ومجالات الدراسة الواسعة والموقع الجغرافي للمستخدمين. ينتهي السؤال الرئيسي لهذه المخطوطة بأنه لا يقدر بثمن ، حيث أن توفير منصة للتحليل الجغرافي المكاني على نطاق الكواكب ، والذي يمكن الوصول إليه أيضًا للجميع ، هو أحد الأهداف الرئيسية لـ GEE. تم تقييم أنماط التأليف ، والنطاق الجغرافي للتحليل ، وكذلك مجال التطبيق الرئيسي ، باستخدام الأدبيات التي راجعها النظراء. على الرغم من أن تطبيقات GEE فيما يتعلق بالموضوع متنوعة للغاية ، إلا أن التحليل يوضح أن استخدام GEE & # 39s يتم في الغالب من قبل البلدان المتقدمة ، مع الأخذ في الاعتبار جنسية المستخدم (على النحو المنصوص عليه من قبل الانتماء المؤسسي) ، والتطبيق الجغرافي. يوفر GEE عددًا كبيرًا من الفرص لرصد الأرض والتطبيقات الجغرافية المكانية. قد يزيل أيضًا بعض الحواجز ، خاصة في العالم النامي. لكن كل هذا يحتاج إلى العمل عليه ، وهناك بعض الفرص لتحسين هذا أيضًا. لا يمكن لآلات المعالجة المكتبية توفير مقياس مناسب لتخزين وتحليل البيانات المستشعرة عن بعد. يمكن القول أنه تم حل هذه المشكلة بشكل عام من خلال نموذج البيانات الضخمة الجديد الذي فتحه GEE. يتم إجراء الكثير من الأبحاث لإيجاد طرق لزيادة التطبيقات في البلدان النامية. بعض الاقتراحات موجهة نحو نهج تدخل أكثر عدوانية.

في [7] ، تم تطوير إطار عمل لرصد الغطاء النباتي. إنه قابل للتطبيق على نطاق كوكبي ويعتمد على تصميم BACI (قبل - بعد ، تحكم - تأثير). يستخدم Google Earth Engine في هذا النهج. تم تطوير تطبيق قائم على الويب يسمى EcoDash. فهو يرسم خرائط EVI للنباتات من منتجات مقياس الطيف التصويري ذي الدقة المتوسطة (MODIS) خلال عامي 2000 و 2002. ويوضح المؤلفون أن هذا النهج هو أداة فعالة من حيث التكلفة ومفيدة للمطورين. تصنيف الصور هو قضية مهمة في الاستشعار عن بعد والتطبيقات الأخرى [8]. لتحقيق تصنيف صور الاستشعار عن بعد ، تم استخدام خوارزمية رواية خاضعة للإشراف تعتمد على نظرية الشبكة المناعية في هذا البحث. تم تصميم وتنفيذ شبكة المناعة الاصطناعية وشبكة الأجسام المضادة لتصنيف صور الاستشعار عن بعد متعددة الأطياف. كما هو مذكور في النموذج ، يحتوي كل AB (جسم مضاد) على عينات مدربة يتم نقلها لتحليل أداء ABNet باستخدام أنواع مختلفة من صورة القمر الصناعي. توفر العينة المدربة الخاضعة للإشراف دقة تصنيف عالية

في [9] يهدف المؤلف إلى التمييز بين محاصيل الحشائش باستخدام أساليب الذكاء الاصطناعي. وظيفة الأساس الشعاعي تم استخدام نهج الشبكة العصبية. يتمثل الحد من الشبكة العصبية في أن الإخراج قد يصبح أحيانًا غير مستقر عند تطبيقه على مشكلة كبيرة. مع وجود أسس رياضية قوية يمكن للمرء أن يضمن أداء أفضل للشبكة العصبية. من حيث الدقة ، هذه الطريقة

يعطي دقة 75٪ وهو أمر جيد مثل تقنية تحليل الصور.

في [10] يستخدم المؤلف متوسط ​​تجزئة التحول والشبكة العصبية العكسية لتعزيز لون الغطاء النباتي الأخضر من النبات. مع الظل ووجود اللون الأزرق ، يصبح فصل النباتات الخضراء مهمة معقدة للغاية. تهدف هذه الورقة إلى تحسين معدل تجزئة صور النباتات التي تحتوي على نباتات خضراء باستخدام متوسط ​​الانزياح. تُستخدم عمليات مثل الفتح والإغلاق والحشو والتثخين وما إلى ذلك لاستخراج المكونات الموجودة في الصورة. ثم يتم استخدام الشبكة العصبية العكسية لتصنيف صورة الغطاء النباتي إلى جزأين: أخضر وغير أخضر. تم استخدام 100 صورة نباتية في الدراسة.

أخيرًا في [11] ، تم تصنيف ميزات الغطاء الأرضي باستخدام تقنية التجزئة. كما تم استخدام MLC (الاحتمال الأقصى) ، والشبكة العصبية ، وآلة ناقلات الدعم لتصنيف الغطاء الأرضي.

يوضح أن خوارزميات التعلم الآلي قد تطورت بنجاح بشكل مدهش في السنوات القليلة الماضية. كان لمجالات مثل التعرف على الكلام ومحركات البحث والروبوتات ، أو المجالات العلمية والتقنية المكثفة للبيانات بشكل عام ، فائدة كبيرة بسبب هذه التطورات. أحد هذه التطبيقات كثيفة البيانات هو الاستشعار عن بعد. يحدث توفير البيانات على نطاق واسع من الطيف الكهرومغناطيسي مثل VIS و IR و UV و NIR و Radar ، بسبب الاستشعار عن بعد اليوم. يمكن لأجهزة الاستشعار التعامل مع الصور أحادية النطاق بالإضافة إلى البيانات متعددة الأطياف وحتى البيانات الفائقة ، من بين أمور أخرى. في كثير من الأحيان ، ينتهي الأمر بالتطبيقات في مجال الاستشعار عن بعد إلى كونها مهام مراقبة ، وبسبب ذلك في بؤرة استغلال الصور ، تظل بيانات السلاسل الزمنية الطويلة. تم استخدام العديد من خوارزميات التعلم الآلي ، بدءًا من الخوارزميات الأساسية جدًا مثل K-Means و PCA إلى أطر تصنيف وانحدار معقدة مثل أشجار القرار والشبكات العصبية الاصطناعية و SVMs والغابات العشوائية ، لأغراض الاستشعار عن بعد منذ بضع سنوات. لطالما كانت أساليب التعلم العميق والشبكات التلافيفية (ConvNets) في بؤرة التركيز لأغراض استغلال الصور منذ السنوات القليلة الماضية وهي تقف على حافة النجاح الهائل والضجيج الذي لا يُصدق. كان هذا ممكنًا من خلال مزيج من الأجهزة المتخصصة والتقدم الحسابي وتوافر البيانات. كيف يمكن استخدام هذه الأساليب الجديدة نسبيًا في تطبيقات الاستشعار عن بعد ، وما هي الأسئلة التي تمت الإجابة عليها والتي لا تزال مفتوحة ، تم استكشافها جميعًا في هذه النظرة العامة.

في [13] ، تمت دراسة المنشورات المتعلقة بالتعلم العميق في جميع المجالات الفرعية تقريبًا من مجال الاستشعار عن بعد. تم تلخيص تقنيات مثل دمج الصور ، وتسجيل الصور ، وتصنيف المشهد ، واكتشاف الأشياء ، وتصنيف LULC ، والتجزئة التي تستخدم التعلم العميق في الاستشعار عن بعد. تصف هذه الدراسة مختلف مجالات الاستشعار عن بعد ، إلى جانب الفرص والتحديات حيث يتم استخدام التعلم العميق.

في [14] المؤلفين قدموا مراجعة للعديد من الأعمال البحثية. يُزعم أن دعم آلات المتجهات ، والغابات العشوائية ، والقرار المعزز Treess قد ثبت أنهما طرق قوية جدًا لتصنيف البيانات المستشعرة عن بعد ، وبشكل عام ، يبدو أن هذه الأساليب تنتج دقة عامة عالية مقارنة بـ

مصنّفات الآلة البديلة مثل شجرة القرار الفردي و k- أقرب جار. ويذكرون كذلك أن أفضل خوارزمية لمهمة معينة قد تكون خاصة بكل حالة وقد تعتمد على الفئات التي يتم تعيينها ، وطبيعة بيانات التدريب ، ومتغيرات التوقع المتوفرة. علاوة على ذلك ، تلعب المعلمات دورًا مهمًا. تم الإبلاغ عن بعض الخوارزميات لتكون قوية لإعدادات المعلمات ، مثل الغابة العشوائية ، وقد يتفوق التعلم الآلي على المصنفات البارامترية. ومع ذلك ، إذا أمكن ، يجب إجراء تحسين المعلمة للحصول على أفضل أداء تصنيف. كما أن حجم العينة وجودة بيانات التدريب لهما تأثير على دقة التصنيف. قد تتأثر دقة التصنيف أيضًا بعدم توازن بيانات التدريب ، وبالتالي من المهم مراعاة اختلالات بيانات التدريب ، خاصةً إذا كانت هناك حاجة لرسم خرائط للفئات النادرة بدقة.

في [15] قام المؤلف بتطبيق تقنيات laerning لتصنيف الغطاء الأرضي. التقنيات المستخدمة هي آلة ناقلات الدعم ، والغابة العشوائية ، و CART ، والتصنيف المستند إلى شجرة القرار. تم الحصول على الصور والمعالجة المسبقة لصورة القمر الصناعي قبل استخدامها في التصنيف. وبعد ذلك تم تطبيق خوارزميات التصنيف للتعرف على خاصية الغطاء الأرضي ودراسة اختلاف الدقة في خوارزميات التصنيف الثلاثة هذه. أجريت دراسة مقارنة من خلال تطبيق مؤشرات الغطاء النباتي إلى جانب تقنيات التعرق بالآلات. عند تطبيق هذه التقنيات في منطقة جغرافية محددة ، يُلاحظ أن النهج المشترك يعطي مزيدًا من الدقة. تُستخدم منصة محرك Google Earth لتصنيف ميزة Landcover.

قدم هذا القسم مسحًا أدبيًا للأوراق البحثية في مجال تحليل صور الاستشعار عن بعد لأغراض التصنيف المختلفة.

إن تطبيق تقنيات التعلم الآلي في تحليل بيانات الاستشعار عن بعد التي تم تلخيصها في هذه الورقة له مجال كبير في المستقبل. بالإضافة إلى ذلك ، لمزيد من الدقة ، نحتاج إلى إعادة تأطير صور القمر الصناعي في محاولة لتأمين التفرد في الألوان كما هو موجود في الصور ولإدارة الألوان المختلفة كما هو موضح في كائنات من نفس بنية الفئة. قد يستنتج المرء أن طرق التعلم الآلي بشكل عام ، وخاصة SVM و RF و DTs المعززة ، قد ثبت أنها أكثر قوة لمساحات الميزات الكبيرة أو المعقدة مقارنة بالطرق البارامترية. كجزء من عملنا المستمر ، نهدف إلى بناء نماذج لتصنيف الغطاء الأرضي باستخدام تقنيات التعلم الآلي المختلفة.

الكتاب ممتنون للدعم المالي المقدم من SKYMAP GLOBAL (SMG) Pvt. المحدودة سنغافورة ، في إطار & quotSMG-BIT Agri Research program & quot في إجراء هذا البحث.

Noel Gore lick (2017) Google Earth Engine: تحليل جغرافي مكاني على مستوى الكواكب للجميع

نانكي سيدهو (2018) استخدام Google Earth Engine لاكتشاف تغير الغطاء الأرضي: سنغافورة كحالة استخدام

مينجيت آل. (2016): تصنيف يغطي الأراضي باستخدام الغابة العشوائية مع تحسين المعلمات المستندة إلى الخوارزمية الجينية

Jinru Xue و Baofeng Su ، مؤشرات النباتات الهامة للاستشعار عن بعد: مراجعة للتطورات والتطبيقات ،

Journal of Sensors Volume 2017 ، معرف المقالة 1353691 ، 17 صفحة

Onisimo Mutanga and Lalit Kumar (مارس 2019) ، تطبيق محرك Google Earth ، منشورات MDPI ، 2019

Lalit Kumar و Onisiono Mutanga ، تطبيق Google Earth Engine منذ بداية الاستخدام ، الاتجاهات والإمكانيات

Ate Poortinga و Nicholas و David Saah ، عملية ما قبل تأثير التحكم بعد (BACI) منصة مصممة لرصد الغطاء النباتي على نطاق الكوكب

Yanfei Zhong ، شبكة مناعية اصطناعية تكيفية للتصنيف الخاضع للإشراف لصور الاستشعار عن بعد متعددة الأطياف

M.J Aitkenhead ، تمييز الأعشاب والمحاصيل باستخدام تحليل الصور وطريقة الذكاء الاصطناعي ، أجهزة الكمبيوتر والإلكترونيات في الزراعة 39 (2003) 157-171

Liying Zheng ، تجزئة الألوان القائمة على التحول على أساس التحول للصورة التي تحتوي على نباتات خضراء وأجهزة الكمبيوتر والإلكترونيات في الزراعة 65 (2009) 9398

Xiangrong Zhang ، تجزئة مشتركة وتصنيف الصورة الفائقة الطيفية باستخدام متوسط ​​التحول ومصنف التمثيل المتناثر

Karsten Schulz و Ronny Hänsch و Uwe Sörgel & quot طرق التعلم الآلي لتطبيقات الاستشعار عن بعد: نظرة عامة ومثل ، Proc. SPIE 10790 ، موارد الأرض والاستشعار البيئي عن بعد / تطبيقات نظم المعلومات الجغرافية IX ، 1079002 (9 أكتوبر 2018) https://doi.org/10.1117/12.2503653

LeiMa و YuLiu و XueliangZhang و YuanxinYe و GaofeiYin و Brian AlanJohnso ، التعلم العميق في تطبيقات الاستشعار عن بعد: تحليل تلوي ومراجعة ، ISPRS Journal of Photogrammetry and Remote Sensing ، المجلد 152 ، يونيو 2019 ، الصفحات 166-177

آرون إي ماكسويل ، تيموثي إيه وارنر وأمبير فانغ

فانغ (2018) تنفيذ تصنيف التعلم الآلي في الاستشعار عن بعد: مراجعة تطبيقية ، المجلة الدولية للاستشعار عن بعد ، 39: 9 ، 2784-


نبذة مختصرة

أدت التطورات الحديثة في تقنيات الاستشعار عن بعد (RS) وتحليلات نظام المعلومات الجغرافية (GIS) إلى تعزيز الدراسات الميدانية للعوامل البيئية التي تؤثر على التوزيع المكاني للأمراض المنقولة بالنواقل. تم استخدام هذه التقنيات سابقًا لرسم خريطة ومراقبة ناقل الذبابة في مصر. تم تطبيق استخدام RS و GIS فيما يتعلق بالعوامل البيئية السياقية ، بما في ذلك درجة حرارة سطح الأرض (LST) ، وفرق الغطاء النباتي الطبيعي (NDVI) ، ومؤشر فرق الماء الطبيعي (NDWI) ، وكثافة ذبابة المنزل للنمذجة والتنبؤ بكثافة ذبابة المنزل في موقع معين. وجدت النتائج علاقة قوية بين كثافة ذباب المنزل والرطوبة (r = 0.98) ، NDWI35 (r = 0.98) و LST (r = 0.90). تم العثور على هذه المتغيرات الثلاثة مع مؤشر NDVI لتشكيل أفضل نموذج دقيق للتنبؤ بكثافة ذبابة المنزل مع أعلى معامل تحديد (r 2 = 0.97) وأدنى عامل تضخم التباين (VIF = 5.67) ومعيار معلومات Akaike (AIC = 7.95 ) من بين النماذج الأخرى المختبرة. تقترح هذه الدراسة أن الدراسات المستقبلية يجب أن تتضمن عوامل أخرى تتعلق بكثرة ناقلات الأمراض ، وكفاءة الناقل ، والسكان البشريين لإنتاج خرائط مخاطر أكثر شمولاً ، وبالتالي المساعدة في تخطيط استراتيجيات الوقاية والسيطرة الفعالة ، كما أكدت هذه الدراسات على أهمية جهود المجتمع تجاه الطيران. يتحكم.


3. الثغرات والتحديات: التكنولوجيا والسياسة والعلوم والمجتمع

في السنوات الأخيرة ، أصبح من الواضح بشكل متزايد أن أحدث التقنيات لبيانات الأرض الكبيرة تؤكد على المعالجة المستندة إلى الويب بدلاً من الأساليب التي تعتمد على التنزيل. يأتي هذا التحول مصحوبًا بالعديد من التحديات ، ولكنه يأتي أيضًا مع فرص لمجتمع الاستشعار عن بعد بأكمله بشكل عام والمستخدمين الفرديين على وجه الخصوص. في وقت سابق ، كانت الأساليب العلمية مقتصرة على نهج البدء بفرضية واختبارها من أجل الاتساق من خلال جمع كمية كافية إحصائيًا من البيانات على وجه التحديد. في عصر بيانات الأرض الكبيرة ، مع اكتسابها المستمر للبيانات المستقلة والتطبيقية ، تظهر مناهج جديدة تعتمد على البيانات حيث تكون العلاقات الإحصائية أكثر أهمية من السببية. حتى أن البعض يدعي أن هناك "نهاية للعلم" أو "نهاية للنظرية" مع مناقشة مستمرة حول هذا الموضوع (Mazzocchi 2015). في هذا السياق ، يجادل بولتون (2018) بأن تأثيرات بيانات الأرض الكبيرة يمكن مقارنتها باختراع المجهر ، مما يسمح برؤية أنماط معقدة ولكنها كانت مخفية سابقًا. يجادل آخرون بأن البيانات المتحيزة تتطلب طرقًا متحيزة وتدعو إلى تضمين الدلالات في تحليل البيانات ، خاصةً عند دمج البيانات من مصادر متعددة (Narock and Shepherd 2017 Scheider و Ostermann و Adams 2017). بصرف النظر عن المناقشة العلمية ، في التطبيقات العملية ، سيتم توسيع مجتمعات مستخدمي بيانات الأرض الكبيرة بشكل أكبر لتشمل مجموعات المستخدمين غير الخبراء الذين يبحثون عن إجابات عملية في البيانات. بعد التحقيق في أحدث بيانات EO ، تم اختيار "الثلاثي" من (1) البيانات التي يمكن الوصول إليها والجاهزة للتحليل ، (2) الأدوات المستندة إلى الويب و (3) نتائج المشاركة في هذه المساهمة لمناقشة الديناميات الحالية في مجال بيانات الأرض الكبيرة.

3.1. الدخول الى البيانات

The open access policy of many scientific EO data, e.g. from Landsat and Copernicus allow analyses at a continental or even global scale. Simultaneous to the political decisions, requirements are increasing both on the user side to execute ‘any query, anytime, on any size’ (Baumann 2017b , 2018 ) and on the data provider side ‘to bring the user to the data, not the data to the user’. Public solutions, as well as private ones, react with a variety of new and innovative tools, which have been recently developed (e.g. DIAS, ODC, EarthServer, EO Browser, GEE).

The traditional approach of downloading image data to personal storage devices and performing the tasks on individual infrastructure and software is time-consuming and inefficient when dealing with large amounts of remote sensing data. In the EO domain, data become increasingly ‘immobile’ (i.e. data downloads are cumbersome or not feasible any more), requiring adequate tools for online access and processing within the environment where the data is located. Due to technological advancements in digital infrastructure, increased computing power and storage capabilities, many computational intensive studies are using cloud computing, where data and software can be accessed on demand, without the need of owning and maintaining physical hardware.

New means of accessing data in the context of big Earth data is driven by the aim to provide ARD in a Web-based accessible high-performance computing (HPC) facility. To date, there is no clear common understanding in the community of ARD or the optimal software technology to facilitate access to data and tools. Individual or institutional interpretations of ARD currently comprise concepts ranging from recommendations of certain pre-processing steps to convert data from original digital numbers into a physical units (e.g. surface reflectance) up to the generation of ESA EO Level 2 products, following the definition by ESA (Baraldi et al. 2017 ). For example, the CARD4L CEOS definition (Killough 2016 ) refers to a recommendation of pre-processing to surface reflectance. The EO Level 2 definition promoted by ESA refers to image data provided in physical units of measurement, corrected for topographic, atmospheric and adjacency effects together with an SCM. The SCM is a pre-requisite for proper image correction but often not delivered in conjunction with the corrected data sets, such as for Landsat Level 2 products (Baraldi et al. 2017 ). Furthermore, the SCM can be used to query image content directly or can serve as starting point for further analysis (Tiede et al. 2017 ). Currently, ESA Level 2 products are generated from Sentinel-2 imagery at the ground segment only for selected areas, e.g. the main land of Europe, a worldwide provision is planned (ESA 2018 ).

Besides technical challenges, organisational and political challenges exist and are partly unsolved or not even discussed. For a research organisation or a company without on premise hardware infrastructure, questions arise whether the data and the developed algorithms are stored securely enough. In the case of open science, where everything is aimed to be open access, this might not be relevant, but for business models, this can be a serious risk. On a political level, questions might arise whether the data should be stored in a central place or replicated at the country-level. The storage of data at a single, central entity, potentially located in another country, and thus potentially outside their influence, might not be politically desired by some countries, institutions or organisations. Data providers, on the other hand, are increasingly being forced to transform themselves into cloud providers (e.g. Copernicus with DIAS, DigitalGlobe with GDB-X) and face new challenges on their own. Examples include how to finance increased costs, challenges regarding IT security when users are uploading and executing their own code (e.g. within Docker containers), but also questions regarding neutrality – or not – and non-discrimination of different user types.

3.2 Processing and analysing

In recent years, the term EO data cube (or geospatial data cube, sometimes data cube only) has emerged to describe a new solution to store, organise, manage and analyse EO data (Baumann et al. 2016 , 2018b Giuliani et al. 2017 Purss et al. 2015 ). EO data cube technology is tightly linked to the aforementioned term ARD (Baumann 2017a , 2017b Giuliani et al. 2017 Lewis et al. 2016 , 2017 ). Different data cubes have been developed and different initiatives cover various scales, from regional to global. They provide different data sets, from single data sources to multiple data sources differing in spatial and temporal resolution, and use different infrastructures, software implementations and user interfaces (Baumann et al. 2018b ). Examples of EO data cubes include the aforementioned EarthServer, the Swiss Data Cube (SDC) (Giuliani et al. 2017 ), and Digital Earth Australia, formerly known as the Australian Geoscience Data Cube, AGDC) (Dhu et al. 2017 Lewis et al. 2016 , 2017 ). In contrast to traditional storage modes of EO data using the images-as-a-temporal-snapshot storage model, in a data cube, the data can be ordered along at least one non-spatial axis (e.g. time) in addition to the spatial axes. Therefore, data cubes store data access-oriented rather than acquisition-oriented and facilitate different access types within one data structure (e.g. spatial, temporal, and thematic).

Data cubes represent one of the emerging and efficient techniques for storing and analysing big Earth data. These multi-dimensional arrays can speed up the performance of trimming, slicing or extracting information from gridded data stored in many dimensions, including spatial or temporal (Baumann 2017b ). Compared with classic storage of gridded data optimised for horizontal (‘spatial’) access, the data cubes are opening a new path towards better performance in time series analysis, when the vertical (‘temporal’) access to the gridded data is needed (Baumann 2017b ). Time series analysis is able to show patterns of phenomena through time and help improve understanding of the environment.

Making big Earth data processing faster relies on reducing the amount of input data or using parallel computing, which has become routine in big Earth data analytics. The process of dividing larger tasks into smaller ones that are distributed and performed simultaneously on multiple computing sources is difficult if data dependencies within the task exist. However, if applicable, it results in a decrease of financial expenses and better usage of existing infrastructure, as reported by Kempeneers and Soille ( 2017 ). During the design and application of algorithms, one has to keep in mind that many algorithms work well in ‘small data’ analytics, but few work well in ‘big data’ analytics. Only a small subset is sufficiently suited for both conditions. Next to the accuracy and correctness of the result, the workflow itself needs to be accompanied by the aforementioned quality indicators (Baraldi et al. 2017 ). The community has not yet developed or agreed upon a full and descriptive set of quality indicators for both products and workflows.

The backbone of big Earth data analytics is some type of distributed computing platform (e.g. clouds). Cloud computing services are broadly categorised into four types: Infrastructure as a Service (IaaS), Platform as a Service (PaaS), Software as a Service (SaaS) and Data as a Service (DaaS) (Yang et al. 2011 ). IaaS provides virtualised computing resources over the internet that can be used for storage, backup or big data analytics, with a pay-as-you-go structure. PaaS provides the hardware and software tools over the internet needed for applications development, testing and delivering. Microsoft Azure and Google App Engine are some of the most popular PaaS. SaaS is often referred to as ‘on-demand-software’, where cloud providers deliver software applications over the Internet, usually on a subscription basis. Common examples of SaaS include the ArcGIS Online (ESRI) cloud implementation, Microsoft Office or Google Gmail and apps. DaaS provides access to data discovery, access, and utilisation, including the software needed to interpret the data (Olson 2009 Yang et al. 2011 ).

While Web-based online processing (e.g. in a cloud environment) is becoming a well-adopted solution for processing big Earth data, it also comes with new challenges that need to be addressed accordingly. For example, if data storage is distributed on several clouds, one still has to move the data to use or share them if no standardised interface is provided. Additionally, the service providers’ infrastructure raise concerns regarding disruptions, such as due to a power outage (Marx 2013 ), as well as security and privacy concerns. A well-known issue in geospatial analysis is represented by interoperability and portability of data and methods (e.g. complex, multiple data formats, or lack of standardisation). This is also being propagated in Web-based services, where users might be ‘locked in’ (i.e. tied to a specific cloud provider).

All of the challenges represent a barrier in a wider adoption of this technology and ways of dealing with these challenges need to receive important consideration in the future. Web-based platforms are still not easily accessible for researchers. Main obstacles include low programming skills, constraints regarding security, or vendor lock-in. Cloud computing is the facilitator of big Earth data analyses with larger spatial and temporal extents and the ever-growing data volumes. However, working towards wider openness and user friendliness is an ongoing challenge.

3.3 Information sharing

The interdisciplinary opportunities of big Earth data have grown nearly as fast as the data amount. So far, big Earth data were mainly used as a standalone product for the observation of physical Earth dynamics, such as climate change (Ford et al. 2016 Karpatne and Kumar 2017 ) or land-use and land-cover (Lewis et al. 2016 Mack et al. 2017 ). Recently, social media data were added and combined with satellite-derived products not only for social studies (Corbane et al. 2017 ), but also to fill gaps in remotely sensed data availability (Cervone et al. 2017 Panteras and Cervone 2016 ). A study itself has no value if the information is not generated and shared at the right time with the right people. Besides scientific papers, other forms of sharing results are becoming increasingly important, including accessibility and comprehensive portrayal, such as in a Web-based environment.

The sheer amount of multi-dimensional and multi-temporal data, interdisciplinary research, and the dynamics of new developments, in general, makes sharing results, algorithms and knowledge between the experts of different fields and non-expert users essential. This becomes more relevant when the integration of non-EO data (e.g. socioeconomic data) and EO data significantly increases the complexity of interpretation (Guo et al. 2014 Guo et al. 2017 ). One of the most pressing questions arises from the availability and accessibility of processed data (i.e. under which conditions can data be combined and uploaded to external storages? When and how should the results be shared and published?).

Although the cloud facilitates integration of multiple datasets (e.g. commercial or open data) their combined processing might be subject of legal consideration. The ownership of the source data, as well as the processed products derived from data, must be completely clear. Even if licenses for open data explicitly define the framework for data usage, this might not necessarily be the case for products derived from these data, which is not always documented and easily accessible. Furthermore, although the obstacles for sharing results are lowered, especially for new users without expert knowledge, and visibility and usability of results is increased, the scientific peer-review publication system can prevent a comprehensive ‘open results’ approach for unpublished data. At the technical side, risks of vendor lock-in and non-transferability of data and results exist. In particular, cloud providers might decide to turn off their service, leaving users and their data in an unclear and problematic state. An example from outside the EO domain is the Google Code Project Hosting service (DiBona 2015 ).

The societal impact of using big Earth data is growing rapidly and contributing to a more transparent society for consumers. Where big data meets the society the privacy concerns for consumers are evoked, if technological developments are not properly accompanied by clear legislation. Employing big data technologies for societal benefits will lead to better strategic and operational decisions, like efficient environmental monitoring, assessment of climate change impacts or efficient territorial planning of urban and rural settlements. A lot of potential can be found if big Earth data analyses are tied to SDGs and other global initiatives. It may also foster and create a diverse commercial EO market for products and services.

To overcome the challenges mentioned in this chapter, a clear ethical guideline for the acknowledgement of previous work and sharing of results is needed. For instance, a clearly defined and less restrictive open data policy might not only improve the scientific workflow, but also the reproducibility and transferability of results. The positive effects of unrestricted access to ARD might yield another increase of EO data uptake, similar to the significant increase of Landsat image use after the opening of the archive. However, reproducibility not only requires a certain type of data but also semantic annotation of workflows (Scheider, Ostermann, and Adams 2017 ). This ensures data stewardship, comprehensive data lineage and trust in results. Producers of products and services are asked to disseminate detailed documentation of the data and workflows together with their results.

The essential requirement to assist the user in information sharing is especially an easy accessibility and efficient query system for raw data, data products and their lineage. Especially users without a profound knowledge of EO, such as in interdisciplinary research, should also be able to benefit from the availability of already processed products. Similarly, the provider of the cloud environment is very rarely the actual data collector. The acquisition of data and different processing steps should, therefore, be well documented and comprehensible for the user. In addition, sharing and communicating errors, uncertainties and pitfalls must occur to avoid inappropriate data use that ends up in misconception.


2. General Information

The SBCs data quality, value representation, and visual display largely depend on the RCM computational domain and grid resolution. For climate applications of the Asia region, the domain is centered at 30.0°N and 110.0°W using the Lambert Conformal Conic map projection and 30-km horizontal grid spacing, with total grid numbers of 301 (west-east) × 251 (south–north). Figure 1(a) shows the country map overlaid with latitude and longitude lines projected on the Lambert Conformal Conic map, and Figure 1(b) denotes the 301 × 251 dimensional 30-km spacing grids over the Asia RCM domain. The domain covers the most parts of Asia and represents the regional climate that results from interactions between the planetary circulation and surface processes, including orography and vegetation fields. In this study, the fundamental SBCs using sensor imagery observations are constructed and displayed on this RCM domain, suitable for Asia applications.

Asia RCM domain overlaid with (أ) latitude and longitude and (ب) the 301 × 251 dimensional 30-km spacing grids.

For convenience, the geographic location of a point is hereafter referred as a “pixel” for raw data and a “grid” for the RCM result. A given pixel or grid value represents the area surrounding the point as defined by its respective horizontal spacing. The following section elaborates in detail on raw data sources and processing procedures used to construct any specific RCM domain over the globe. Most procedures use ArcInfo and ArcMap commands. In particular, IMAGEGRID and GRIDPOLY convert input data from the sensor image to the ArcGIS raster grid and to the polygon coverage formats, respectively PROJECT remaps the raw input data onto the RCM grid projection UNION and CLIP geometrically intersect polygon features of input data with the RCM grid mesh and extract the fractional area of each pixel contributing to the grid GRID DOCELL and IF statements conditionally merge, replace, or adjust different input datasets for an improved product. Even relatively finer resolution (8-km) input data, LAI, has missing value pixels due to cloud contamination and atmospheric effects, which are filled by the spatial average over the nearby data pixels having the same land cover category within a certain radius around a missing point. The number of pixels and the range of radius used for filling depend on the resolution of the raw input data. Since the 30-km LAI for the RCM are generated from the two different resolution data of the 1-km FVC and the 8-km LAI, the 1-km data are integrated onto the 8-km map and then a smoothing filter is introduced to remove abnormal values due to inconsistency of the two data at individual pixels (see Section 3.4 for details).


The dynamics of the Algiers periurbanization: geomatic tools for multi-temporal study

Periurbanization dynamics phenomenon causes significant damages to Mitidja plain, which is the agricultural land around Algiers (capital of Algeria). Hence, a cover land monitoring is performed on this paper to delineate, follow, and draw the changes. The proposed methodology is based, on one hand, on the multi-temporal supervised Landsat satellite images classification (1987 to 2017), in order to map soil occupation. On the other hand, a two-dimensional simulation (space time) is developed using cellular automata, which represents landscape mutation process from rural to urban. This simulation allows the implementation of qualitative rules of space evolution. It mainly identifies process changes as well as their rates. The delineation of a such complex periurban space of a large city like Algiers can be expressed in terms of fairly “natural” spatial transition rules. The results of this study are interesting and show that more than 80% of urbanization, during the period 1987–2017, was done on agricultural land.

هذه معاينة لمحتوى الاشتراك ، والوصول عبر مؤسستك.


شكر وتقدير

We would like to thank M.F. Goodchild, L.W. Varma, and two anonymous reviewers the manuscript greatly benefited from their valuable comments on an earlier version. We would also like to thank the Bill and Melinda Gates Foundation for their support of this research and DigitalGlobe for donating high-resolution satellite imagery for the study area. This manuscript has been co-authored by one or more employees of UT-Battelle, LLC under Contract No. DE-AC05-00OR22725 with the U.S. Department of Energy.