021-22889554
021-26703715
مشاوره آموزشی رایگان

021-22889554  |  021-26703715 مشاوره آموزشی رایگان

آیا ما میتوانیم از پایان جهان جلوگیری کنیم؟

Martin Rees

Can we prevent the end of the world?

A post-apocalyptic Earth, emptied of humans, seems like the stuff of science fiction TV and movies. But in this short, surprising talk, Lord Martin Rees asks us to think about our real existential risks — natural and human-made threats that could wipe out humanity. As a concerned member of the human race, he asks: What's the worst thing that could possibly happen?


تگ های مرتبط :

Future, Humanity, Science
ده سال پیش کتابی با عنوان "قرن نهایی ما؟"نوشتم با علامت سوال. ناشرهای من علامت سوال را حذف کردند. (صدای خنده) ناشرهای آمریکایی عنوان ما را به "ساعت نهایی ما" تغییر دادند. آمریکایی ها لذت آنی و تغییر را دوست دارند. (صدای خنده حضار) و داستان من از این قرار بود: زمین ما برای ۴۵ میلیون قرن می زیسته است، اما این یکی (قرن) خاص است --- این اولین برای است که یک گونه، ما، آینده سیاره اش را در دست دارند. تقریبا در کل تاریخ زمین، تهدید ها از جانب طبیعت بوده اند __
امراض، زلزله ها، اجسام سماوی و از این قبیل__ ولی از این زمان به بعد، بیش ترین خطرها از جانب ما خواهد بود . و اکنون این تنها تهدید هسته ای نیست؛ در دنیای به هم مرتبط ما، اختلالات شبکه ای می توانند در همه جهان منتشر شوند؛ سفرهای هوایی میتوانند بیماریهای همه گیر را در عرض چند روز در سرتاسر جهان پخش کنند؛ و رسانه های اجتماعی می توانند وحشت و شایعه را به واقع به سرعت برق پخش کنند. ما بیش از حد در مورد خطرات کوچک نگرانیم _ تصادفات هوایی غیرمحتمل، مواد سرطانزای موجود در مواد غذایی، میزان تشعشعات ضعیف و از این قبیل، ____ اما ما و سیاستمدارهای ما
این سناریوهای فاجعه آمیز را رد می کنند. که خوشبختانه بدترین آن هنوز اتفاق نیافتاده در واقع، شاید اتفاق هم نیافتند. اما اگر یک واقعه بالقوه ویرانگر باشد، شایسته است که برای آن بهای قابل توجهی برای حفاظت در برابر آن، هر چند بعید، را بپردازیم، همان طور که ما خانه یمان را بیمه آتش سوزی می کنیم. و همان طور که علم قدرت و نوید های بیشتر را ارائه می کند، آن طرفی دیگر مسئله ترسناک تر می شود. ما حتی آسیب پذیرتر هم می شویم. در عرض چند دهه، میلیون ها (انسان) توانایی خواهند داشت تا به سرعت از فناورهای زیستی پیشرو سوء استفاده بکنند.
درست همانطور که آنها امروزه از فنآوریهای سایبری سوء استفاده می کنند. فریمن دایسون، در سخنرانی خود در "تد"، پیشبینی کرد که بچه ها موجودات جدیدی را طراحی و ایجاد خواهند کرد درست همانطوری که نسل او با مجموعه های شیمی بازی میکردند. خوب، این شاید در حاشیه داستانهای علمی-تخیلی باشد، اما حتی قسمتی از سناریوی او بود که اتفاق خواهد افتاد، بوم شناسی ما و حتی نوع ما مطمئنا از آسیب طولانی مدت نجات پیدا نخواهد کرد. برای مثال، بعضی از طرفداران افراطی محیط زیست هستند که فکر می کنند برای سیاره ، زمین، بهتر است اگر انسان های کمتری وجود داشته باشند. چه اتفاقی خواهد افتاد وقتی اینگونه انسانها
بر روشهای زیست شناسی ترکیبی که در سال ۲۰۵۰ که در سراسر دنیا پراکنده خواهد شد، مسلط شوند؟ و از آن به بعد، بقیه کابوسهای افسانه های علمی-تخیلی ممکن است به واقعیت تبدیل شوند: رباتهای کندذهن سرکش شوند، یا یک شبکه که حافظه خودش را ارتقا داده همه ما را تهدید کند. خوب، آیا ما میتوانیم از خودمان در مقابل اینگونه خطرات با مقررات محافظت کنیم؟ ما می بایستی سعی کنیم، ولی این گونه فعالیتها اقتصدی توسط فشارهای تجاری بسیار رقابتی، بسیار جهانی و بسیار پیش رونده هستند، که هر کاری را که می شود انجام داد ، در جایی انجام خواهد شد، هر آنچه که مقررات میگوید.
این مثل قانون مواد مخدر است- ما تلاش میکنیم تنظیم شود، اما نمیتوانیم. و دهکده جهانی ابله های خودش را خواهد داشت، و آنها یک گستره جهانی خواهند داشت. بنابراین همانطور که من در کتابم گفتم، ما راه پر دست اندازی را در طول این قرن در پیش خواهیم داشت. ممکن است موانعی برای جامعه ما وجود داشته داشته باشد--- در واقع، یک شانس ۵۰ درصدی از یک مانع جدی. اما آیا وقایع قابل تصوری که میتوانند بدتر هم باشند وجود دارند، وقایعی که بتوانند همه زندگی ما را نابود کنند؟ وقتی که یک ذره شتابدهنده فعال شد، بعضی از مردم با نگرانی پرسیدند: آیا آن میتواند زمین را نابود کند یا، حتی بدتر،
تار و پود فضا را متلاشی کند؟ خوب خوشبختانه، (به شما) اطمینان داده میشود. من و دیگران اشاره کردیم که طبیعت قبلا آزمایشات مشابهی را هزاران هزار بار از طریق تصادفات کیهانی انجام داده است. اما مطمئنا دانشمندان باید درباره آزمایشاتی که وضعیتهای بی سابقه ای را در دنیای طبیعی بوجود میاورند، محتاط باشند. زیست شناسان باید از آزادسازی پاتوژن های بالقوه ویرانگر اصلاح شده ژنتیکی دوری کنند. به هر حال، بیزاری ویژه ما از خطر فاجعه به حوادث وجودی و مرتبط باهستی بشر
بستگی به یک سؤال فلسفی و اخلاقی دارد، و آن این است: دو سناریو را در نظر بگیرید: سناریو "آ" ۹۰درصد از نوع بشر را نابود میکند. سناریو "ب" ۱۰۰ درصد را از بین میبرد. تا چه حد "ب" از "آ" بدتر است؟ شاید بعضی ها بگویند ۱۰ درصد بدتر است. تعداد انسانها ۱۰ درصد بیشتر است. اما من میگویم که "ب" بدون مقایسه بدتر است. به عنوان یک ستاره شناس، من نمیتوانم باور کنم که نوع بشر آخر این ماجرا باشد. این ۵ بیلیون سال سال قبل از اینکه خورشید درخشان شود است، و شاید کیهان برای همیشه در حرکت باشد،
بنابراین تحول (موجود) فراانسانی در روی زمین و فراسوی آن، میتواند به درازا ، و حتی شگفت انگیزتر، از تکامل داروینی باشد که به ما ختم شده است. در واقع، تکامل آینده خیلی سریعتر در یک جدول زمانی فن آوری شده به وقوع خواهد پیوست و نه در یک جدول زمانبندی انتخاب طبیعی. پس با توجه به آن مخاطرات بسیار زیاد، ما نباید حتی یک خطر از بیلیونها خطری را که بطور بالقوه منجر به نابودی انسان میشود را بپذیریم. بعضی سناریوها که پیش بینی شده ممکن است واقعا داستان علمی-تخیلی باشند،
اما بقیه ممکن است به طرز آشفته ای واقعی باشند. این یک قاعده مهم است که ناشناخته ها مثل غیرمحتمل ها نیستند، و در واقع، به همین دلیل است که ما در دانشگاه کمبریج در حال تأسیس یک مرکز برای مطالعه چگونگی کاهش این خطرهای وجودی و مرتبط با هستی بشر هستیم. فکر کردن درباره این فاجعه بالقوه فقط برای عده کمی از مردم با ارزش به نظر میرسد. و ما محتاج تمامی آنچه که دیگران می توانند به ما بدهند هستیم، زیرا ما خدمه های یک نقطه آبی روشن گرانبها در پهنه گسترده کیهان هستیم، یک سیاره با ۵۰ میلیون قرن در پیش رو. پس اجازه بدهید تا آن آینده را به خطر نیاندازیم.
و میخواهم که با یک نقل قول از یک دانشمند بزرگ به نام "پیتر مدوار" صحبتم را به پایان برسانم: "ناقوسهایی که برای بشریت به صدا درمی آیند شبیه به زنگوله های گاوهای آلپ هستند. آنها به گردن های ما بسته شده اند، و این تقصیر ما است اگر از آنها صدای خوش آهنگ و دلپذیری تولید نمی شود." با سپاس فراوان از شما.
Ten years ago, I wrote a book which I entitled "Our Final Century?" Question mark. My publishers cut out the question mark. (Laughter) The American publishers changed our title to "Our Final Hour." Americans like instant gratification and the reverse. (Laughter) And my theme was this: Our Earth has existed for 45 million centuries, but this one is special — it's the first where one species, ours, has the planet's future in its hands. Over nearly all of Earth's history, threats have come from nature —
disease, earthquakes, asteroids and so forth — but from now on, the worst dangers come from us. And it's now not just the nuclear threat; in our interconnected world, network breakdowns can cascade globally; air travel can spread pandemics worldwide within days; and social media can spread panic and rumor literally at the speed of light. We fret too much about minor hazards — improbable air crashes, carcinogens in food, low radiation doses, and so forth — but we and our political masters are in denial about catastrophic scenarios.
The worst have thankfully not yet happened. Indeed, they probably won't. But if an event is potentially devastating, it's worth paying a substantial premium to safeguard against it, even if it's unlikely, just as we take out fire insurance on our house. And as science offers greater power and promise, the downside gets scarier too. We get ever more vulnerable. Within a few decades, millions will have the capability to misuse rapidly advancing biotech, just as they misuse cybertech today.
Freeman Dyson, in a TED Talk, foresaw that children will design and create new organisms just as routinely as his generation played with chemistry sets. Well, this may be on the science fiction fringe, but were even part of his scenario to come about, our ecology and even our species would surely not survive long unscathed. For instance, there are some eco-extremists who think that it would be better for the planet, for Gaia, if there were far fewer humans. What happens when such people have mastered synthetic biology techniques
that will be widespread by 2050? And by then, other science fiction nightmares may transition to reality: dumb robots going rogue, or a network that develops a mind of its own threatens us all. Well, can we guard against such risks by regulation? We must surely try, but these enterprises are so competitive, so globalized, and so driven by commercial pressure, that anything that can be done will be done somewhere, whatever the regulations say. It's like the drug laws — we try to regulate, but can't.
And the global village will have its village idiots, and they'll have a global range. So as I said in my book, we'll have a bumpy ride through this century. There may be setbacks to our society — indeed, a 50 percent chance of a severe setback. But are there conceivable events that could be even worse, events that could snuff out all life? When a new particle accelerator came online, some people anxiously asked, could it destroy the Earth or, even worse, rip apart the fabric of space?
Well luckily, reassurance could be offered. I and others pointed out that nature has done the same experiments zillions of times already, via cosmic ray collisions. But scientists should surely be precautionary about experiments that generate conditions without precedent in the natural world. Biologists should avoid release of potentially devastating genetically modified pathogens. And by the way, our special aversion to the risk of truly existential disasters depends on a philosophical and ethical question,
and it's this: Consider two scenarios. Scenario A wipes out 90 percent of humanity. Scenario B wipes out 100 percent. How much worse is B than A? Some would say 10 percent worse. The body count is 10 percent higher. But I claim that B is incomparably worse. As an astronomer, I can't believe that humans are the end of the story. It is five billion years before the sun flares up, and the universe may go on forever, so post-human evolution, here on Earth and far beyond,
could be as prolonged as the Darwinian process that's led to us, and even more wonderful. And indeed, future evolution will happen much faster, on a technological timescale, not a natural selection timescale. So we surely, in view of those immense stakes, shouldn't accept even a one in a billion risk that human extinction would foreclose this immense potential. Some scenarios that have been envisaged may indeed be science fiction, but others may be disquietingly real. It's an important maxim that the unfamiliar
is not the same as the improbable, and in fact, that's why we at Cambridge University are setting up a center to study how to mitigate these existential risks. It seems it's worthwhile just for a few people to think about these potential disasters. And we need all the help we can get from others, because we are stewards of a precious pale blue dot in a vast cosmos, a planet with 50 million centuries ahead of it. And so let's not jeopardize that future. And I'd like to finish with a quote from a great scientist called Peter Medawar.
I quote, "The bells that toll for mankind are like the bells of Alpine cattle. They are attached to our own necks, and it must be our fault if they do not make a tuneful and melodious sound." Thank you very much. (Applause)