شاید پیش‌بینی زلزله در آینده‌ای نزدیک ممکن شود
1400/11/04 - 10370 - 0 -

بشر سال‌ها است با مشکل زلزله‌های غیرمنتظره روبه‌روست که زندگی بسیاری از افراد را تهدید می‌کند؛ اما آیا می‌توان به کمک فناوری‌هایی مثل هوش مصنوعی در آینده زلزله را پیش‌بینی کرد؟

یکی از پرسش‌های متداولی که برای بسیاری از افراد مطرح می‌شود این است که آیا زلزله‌ قابل پیش‌بینی است؟ پاسخ این سؤال فعلاً منفی است. به نقل از United States Geological Survey هیچ دانشمندی تا ‌کنون موفق به پیش‌بینی زلزله‌های بزرگ نشده و به روش آن هم دست نیافته است.

اما شاید به‌زودی پیش‌بینی زلزله امکان‌پذیر شود. اگرچه پس از ده‌ها سال تلاش ناموفق و ادعاهای بی‌اساس درباره‌ی پیش‌بینی زلزله، باید به دید شک به این موضوع نگاه کرد. پاول جانسون، متخصص ژئوفیزیک آزمایشگاه ملی لوس آلاموس در‌ ‌حال بررسی پتانسیل پیش‌بینی زلزله است. او و تیمش به‌عنوان بخشی از پژوهش‌ها در جهت درک علم زلزله‌شناسی، ابزاری را توسعه‌ دادند که می‌تواند پیش‌بینی زلزله را امکان‌پذیر سازد.

روش آن‌ها مانند بسیاری از پژوهش‌های علمی کنونی مبتنی بر هوش مصنوعی از نوع یادگیری ماشین است. آن‌ها به این منظور از برنامه‌های کامپیوتری به نام شبکه‌های عصبی استفاده می‌کنند. این برنامه‌ها مدل‌های ساده‌شده‌ای از سیستم‌های عصبی هستند که می‌توانند داده‌ها را یاد بگیرند. یادگیری ماشین در سال‌های گذشته به‌شدت مورد توجه قرار گرفته و در زمینه‌های مختلفی مثل تبدیل گفتار به متن تا تشخیص سرطان بر‌ اساس اسکن‌های کامپیوتری تومورگرافی به موفقیت‌های بزرگی رسیده است. حالا از این فناوری می‌توان برای زلزله‌شناسی استفاده کرد.

یکی از سختی‌های این کار نیاز شبکه‌های عصبی به مقادیر انبوه داده‌ها برای جست‌وجو است؛ اما زلزله‌ها معمولاً داده‌های زیادی را ارائه نمی‌کنند. زلزله‌های بزرگ به دلیل شرایط استثنایی مثل حرکت اشتباه گسل‌های زمین‌شناسی یا صفحات تکتونیکی رخ می‌دهند؛ اما چرخه‌ی زلزله‌ها شامل فرآیندی به نام لغزش چسبنده (stick slip) است که ممکن است ده‌ها سال به طول بینجامد. در درجه‌ی اول حرکت اندکی روی گسل به دلیل تغییر شکل به وجود می‌آید درنتیجه نقاط داده‌ای اندکی برای تغذیه‌ی برنامه‌ی یادگیری ماشین وجود دارند. سپس لغزش فاجعه‌باری باعث آزادسازی کرنش انباشته‌شده می‌شود؛ بدین‌ترتیب، داده‌های زیادی تولید می‌شوند که به هیچ عنوان برای اهداف پیش‌بینی مناسب نیستند.

بر‌ اساس تخمین‌های دکتر جانسون برای آموزش یک سیستم نیاز به ده چرخه‌ی زلزله است. ازآنجاکه زلزله‌نگاری علمی جوان است حتی آماری نزدیک به این هم به دست نیامده است؛ برای مثال زلزله‌ی بزرگ گسل سندآندریاس در کالیفرنیا حدود ۴۰ سال پیش رخ داد اما تنها نزدیک به ۲۰ سال (به بیان دیگر نصف چرخه) داده تولید کرد.

بااین‌حال تیم دکتر جانسون در سال ۲۰۱۷ یادگیری ماشین را بر نوع متفاوتی از فعالیت زلزله‌نگاری اعمال کردند. رویدادهای لغزشی کند که گاهی زلزله‌های خاموش هم نامیده می‌شوند بر اثر حرکت صفحات به وجود می‌آیند. با اینکه زلزله معمولاً در چند ثانیه رخ می‌دهد، رویداد لغزشی کند می‌تواند تا چند ساعت، چند روز یا حتی چند ماه به طول بینجامد. از دیدگاه یادگیری ماشین این رویداد نسبتاً طولانی نقاط داده‌ای را برای آموزش شبکه‌ی عصبی ایجاد می‌کند.

دکتر جانسون منطقه‌ی فرورانش کاسکادیا را بررسی می‌کند، شاخصه‌ای تکتونیکی که در راستای ۱۰۰۰ کیلومتری ساحل آمریکای شمال از جزیره‌ی ونکوور کانادا تا شمال کالیفرنیا کشیده شده است. این شاخصه‌ی مرز بین صفحات اکسپلورر، خوان دو فوکا و گوردا در غرب و صفحه‌ی آمریکای شمالی در شرق است. حرکت پیوسته‌ی صفحه‌ی دوم روی سه صفحه‌ی اول هر ۱۴ ماه یک بار باعث ایجاد رویداد لغزش کند می‌شود و متخصصان ژئوفیزیک از سال ۱۹۹۰ این فعالیت را به صورت دقیق ثبت کرده‌اند.

درنتیجه چرخه‌های کاملی از داده‌ها وجود دارند و سیستم یادگیری ماشین که بر‌ اساس این داده‌ها آموزش می‌بیند می‌تواند لغزش‌های کند گذشته را طبق سیگنال‌های زلزله‌ی قبلی شناسایی کند و احتمال وقوع آن‌ها را در یک هفته پیش‌بینی کند.

تست بعدی برای پیش‌بینی واقعی رویداد لغزش کند به کار می‌رود؛ اما حتی بدون احتمال وقوع این رویداد، بر‌ اساس پژوهش‌های جانسون، تکنیک‌های یادگیری ماشین برای رویدادهای زلزله‌نگاری به خوبی عمل می‌کنند و اگر راهی برای جبران کمبود داده‌ها وجود داشت می‌توانستند آن را برای زلزله‌های دیگر هم تعمیم دهند. دکتر جانسون و همکاران او برای جبران کمبود داده‌ها به‌دنبال پیاده‌سازی فرآیندی به نام یادگیری انتقالی هستند. این فرایند بر‌ اساس ترکیبی از اطلاعات جهان واقعی و شبیه‌سازی‌شده عمل می‌کند.

          داده‌های واقعی

زلزله‌های آزمایشگاهی در‌ واقع زلزله‌هایی در مقیاس کوچک هستند که با فشرده‌سازی کند لایه‌های شیشه‌ای تولید می‌شوند. این آزمایش جایگزین خوبی برای حرکت لغزشی چسبنده است. تیم دکتر جانسون شبیه‌سازی عددی (مدلی کامپیوتری که عناصر ضروری یک سیستم فیزیکی را دریافت می‌کند) زلزله‌ی آزمایشگاهی را دریافت کردند و سیستم یادگیری ماشین خود را بر ‌اساس آن آموزش دادند تا ببینند سیستم قادر به یادگیری دوره‌ی زلزله‌های جایگزین هست یا خیر.

نتایج نسبتاً موفقیت‌آمیز بودند؛ اما دلیل این موفقیت تقویت سیستم با داده‌هایی غیر از آزمایش‌های واقعی یا به بیان دیگر استفاده از روش یادگیری انتقالی بود. ترکیب داده‌های شبیه‌سازی‌شده با داده‌های اندک واقعی نتایج چشمگیری را برای پیش‌بینی زلزله‌های آزمایشگاهی تولید خواهد کرد.

گام بعدی در جهت پیش‌بینی زلزله، پیاده‌سازی روش آزمایشگاهی بر گسل زمین‌شناسی واقعی است که در این نمونه گسل سن آندریاس انتخاب شد. سیستم یادگیری ماشین بر‌ اساس داده‌های شبیه‌سازی عددی گسل و همچنین داده‌های مربوط به نیم چرخه‌ آموزش می‌بیند. سپس تیم دکتر جانسون بررسی می‌کنند که داده‌ها برای پیش‌بینی رویدادهایی که در داده‌ها وجود ندارند کافی هستند یا خیر. دکتر جانسون در این نمونه، زلزله‌ی شش ریشتری پارکفیلد در سال ۲۰۰۴ را هدف قرار داد؛ لغزش گسل سن آندریاس که کمترین خرابی را به بار آورد اما به خوبی مورد بررسی قرار گرفت.

در ‌حال‌ ‌حاضر داده‌های دکتر جانسون محدود به پیش‌بینی زمان‌بندی زلزله‌ای قریب‌الوقوع هستند. پیش‌بینی کامل موارد دیگری مثل محل تقریبی زلزله در راستای گسل و شدت آن را هم در‌ بر می‌گیرد. با این‌ حال‌ اگر زمان‌بندی قابل‌پیش‌بینی باشد، قطعاً پیش‌بینی معیارهای دیگر آسان‌‌تر خواهد شد.

جانسون به نتایج اولیه در سه تا شش ماه آینده امیدوار است اما هشدار می‌دهد که ممکن است این تخمین‌ها بیشتر طول بکشند. در صورتی که نتایج امیدوارکننده باشند شکی نیست که تیم‌های دیگر در سراسر جهان هم تلاش خود را افزایش خواهند داد و از داده‌های تاریخی دیگر گسل‌های تولیدکننده‌ی زلزله برای اثبات این روش استفاده می‌کنند. بدین‌ترتیب، مدل موجود بهبود خواهد یافت.

در صورتی که نتیجه‌ای هم به دست نیامد چیزی از دست نخواهیم داد زیرا به این صورت دکتر جانسون درک بهتری از فیزیک زلزله‌های بزرگ را فراهم می‌کند که خود یافته‌ی ارزشمندی است؛ اما در صورت موفقیت این روش، نرم‌افزاری برای پیش‌بینی وقوع زلزله‌های بزرگ ساخته خواهد شد که دستاورد بسیار بزرگی است.