021-22889554
021-26703715
مشاوره آموزشی رایگان

021-22889554  |  021-26703715 مشاوره آموزشی رایگان

از ابرهوش مصنوعی نترسید

Grady Booch

Don't fear superintelligent AI

New tech spawns new anxieties, says scientist and philosopher Grady Booch, but we don't need to be afraid an all-powerful, unfeeling AI. Booch allays our worst (sci-fi induced) fears about superintelligent computers by explaining how we'll teach, not program, them to share our human values. Rather than worry about an unlikely existential threat, he urges us to consider how artificial intelligence will enhance human life.


تگ های مرتبط :

AI, Algorithm, Brain
وقتی بچه بودم،‌ اصل درسخوان بودم. فکر کنم بعضی از شما همینطوری بودید. (خنده) و شما آقا که از همه بلندتر خندیدی، احتمالا هنوز هم هستی. (خنده) در شهری کوچک در دشتهای غبارآلود شما تگزاس بزرگ شدم، پسر یک کلانتر که خودش پسر یک کشیش بود. پس جایی برای خرابکاری نمیماند. و من محض تفریح کتابهای حساب میخواندم. (خنده) شما هم اینطور بودید. که باعث شد یک لیزر و کامپیوتر و مدل موشکی بسازم، و این که باعث شد در اتاق خوابم سوخت موشک بسازم. الان در عبارات علمی
این را یک ایده بد میخوانیم. (خنده) و هم زمان فیلم « ۲۰۰۱: یک ادیسه فضایی» استنلی کوبریک به روی پرده آمد، و زندگی من برای همیشه تغییر کرد. از همه چیز فیلم خوشم میامد بخصوص اچ‌ای‌ال ۹۰۰۰. این اچ‌ای‌ال یک کامپیوتر احساسی بود که جهت راهنمایی سفینه فضایی دیسکاوری در رفتن از زمین به مشتری طراحی شده بود. ای‌اچ‌ال همینطور یک شخصیت معیوب بود. چون در آخر ماموریت را بجای جان بشر انتخاب کرد. ای‌اچ ال یک شخصیت تخیلی بود اما با این وجود درباره ترسهای ما حرف می‌زد،
ترسمان از مقهور شدن از سوی یک هوش مصنوعی بی‌احساس که به بشریت بی‌اعتناست. به باور من این ترسها بی‌اساس است. ما در واقع در برهه قابل توجهی از تاریخ بشر بسر می‌بریم، جاییکه با نگیزش انکار در پذیرش محدودیتهای ذهنی و جسمی خود ماشینهایی را می سزیم که با پیچیدگی زیبا، منحصربفرد و زیبندگی تجربه بشری را تا ورای تصورات ما گسترش خواهند داد. بعد از مسیر حرفه‌ای که من را از آکادمی نیروی هوایی به فرماندهی فضایی و الان به این مهندس سیستمی که شدم کشاند،
و تازگی درگیر مشکل مهندسی شده‌ام که مرتبط با ماموریت ناسا به مریخ است. الان در سفرهای فضایی به ماه می‌توانیم به کنترل ماموریت در هوستون تکیه کنیم تا کلیه جوانب یک پرواز را نظارت کند. هرچند، مریخ ۲۰۰ بار دورتر است، و در نتیجه بطور متوسط ۱۳ دقیقه طول می‌کشد تا یک سیگنال از زمین به ماه برسد. اگر مشکلی باشد زمان کافی نداریم. و برای یک راه‌حل مهندسی منطقی از ما این را طلب می‌کند که کنترل گر ماموریت داخل دیوارهای فضای پیمای اوریون باشد. یک ایده جذاب دیگر در روند ماموریت
استفاده از روباتهای انسانی در سطح مریخ است پیش از رسیدن انسانه، اول این که امکاناتی را برپا کنند و بعد بعنوان اعضای همکار تیم علمی خدمت کنند. الان که از دید مهندسی به این نگاه می‌کنم برایم کاملا روش می‌شود که آنچه بعنوان معمار لازم داشتم یک هوش مصنوعی زیرک، همکاری کننده و دارای هوش اجتماعی بود. بعبارتی چیزی به اچ‌ای‌ال بسازم اما بدون گرایشات انتحاری. (خنده) برای لحظه‌ای بیایید مکث کنیم. آیا امکان سک هوش مصنوعی مثل آن وجود دارد؟ راستش هست.
از بسیاری جهات این یک مشکل سخت مهندسی با اجزای ماشین ابر هوشمند است، نه یک جور گوی مودار خیس از یک مساله ابرهوشمند که نیاز به مهندسی دارد. بگذارید از آلن تورینگ جور دیگر نقل قول کنم، من علاقه‌ای به ساخت یک ماشین احساسی ندارم. من اچ‌ای‌ال نمیسازم. تمام انچه دنبالشم یک مغز ساده است، چیزی که شبحی از هوش را ارائه کند. هنر و علم محاسبات کامپیوتری از زمان ای اچ‌ال بر روی پرده روزهای زیادی را پشت سر گذاشته ومن تصور می کنم اگر مخترع آن دکتر چاندرا امروز اینجا بود، کلی پرسش برای ما داشت.
آیا واقعا برای ما امکان دارد یک سیستم چند میلیونی را بنابر میلیونها دستگاه در اختیار بگیریم تا جریان داده‌های آنها را بخواند، تا ایراداتشان را پیش‌بینی کند و پیشاپیش عمل کند. بله. آیا می‌توان سیستمهایی ساخت که با انسانها به زبان عادی صحبت کنند؟ بله. آیا می‌توان سیستمهایی ساخت که اشیا و احساست را بشناسند، در احساسات خود اغراق کنند، بازی کنند و حتی لب خوانی انجام دهند؟ بله. آیا می‌توان سیستمهای ساخت که هدف تعیین کنند، که طرحهایی را علیه آن اهداف انجام دهند و در طول مسیر به یاد گرفتن بپردازند؟ بله.
آیا می‌توان سیستمهای ساخت که دارای نظریه ذهنی باشند؟ کاری که الان داریم میاموزیم. آیا می‌توان سیستمهای ساخت که پایه اخلاقی و وجدانی دارند؟ چیزی که باید انجامش را بیاموزیم. خب بگذارید برای لحظه‌ای بپذیریم که امکان ساخت چنین هوش مصنوعی برای چنین ماموریتهایی وجود دارد. این سوال بعدی که باید از خودتان بپرسید، آیا باید از آن ترسید؟ خب با آمدن هر فناوری جدیدی دلهره و واهمه‌ای هم همراهش میاید. وقتی برای بار اول ماشینها را دیدیم، مردم تاسف می‌خورند که ما شاهد از دست رفتن خانواده خواهیم بود.
وقتی برای اول تلفن آمد، مردم نگران بودند که نکند اثری از مکالمه مدنی نماند. در مرحله‌ای از زمان که ما شاهد بودیم کلام نوشتاری فراگیر شد، مردم فکر می کردند توانایی خود برای بخاطر سپردن را از دست می دهیم. این چیزها تا حدی درست هستند، اما همچنین این مورد هم هست که این فناوریها برای چیزهایی را آورده‌اند که که تجربیات بشری را عمیقا گسترش داده است. پس بیاید کمی این را جلوتر ببریم. من از آفرینش یک ابرهوش مصنوعی مثل این واهمه ندارم، چون سرانجام برخی از ارزشهای ما را دربر خواهد گرفت. این را تصور کنید: ساخت یک سیستم ادراکی که اساسا متفاوت است
از ساخت یک نظام فشرده- نرم‌افزاری سنتی از گذشته. آنها را برنامه ریزی نمی‌کنیم. به آنه موزش می دهیم. برای آموزش به یک سیستم که چطور گلها را تشخیص دهد، هزارن گل از انواعی که دوست دارم را نشان می دهم. برای این که سیستم نحوه انجام بازیی را بیاموزد. خب این را می کنم. شما هم همینطور. گلها را دوست دارم. یالا. برای آموزش به سیستمی که بتواند بازی مثل Go را انجام دهد، هزاران بار گذاشتم که بازیهای Go را انجام دهد اما در این روند آن را آموزش هم می‌دهم. چطور یک بازی خوب را از بد تشخیص دهد. اکر بخواهم یک دستیار حقوقی باهوش مصنوعی خلق کنم،
کمی از مجموعه قانون را خواهم آموخت البته هم زمان با آن مفاهیم عدالت و بخشش را که بخشی از قانون هستند را خواهم آموخت. در عبارات علمی، این را حقیقت مبنا مینامیم و نکته مهم این است: در تولید چنین ماشینهایی درواقع به آنها مفهوم ارزشهایمان را میاموزیم. به همین ترتیب، به هوش مصنوعی همان اندازه‌ای باور دارم که به یک انسانی که بخوبی آموزش دیده. اما ممکن است سوال کنید، ماموران زیرک چطور، یک سازمانه غیردولتی پولدار؟ من ازاین که هوش مصنوعی در اختیار یک گرگ تنها باشد نمی‌ترسم.
معلوم است که ما نمی‌توانیم از خودمان در مقابل تمامی اعمال خشونت‌امیز تصادفی حمایت کنیم اما حقیقت این است که چنین سیستمی نیازمند آموزش مفصل و موشکفانه‌ای دارد که فرای منابع فردی است. و علاوه براین بسیار فراتر از ویروس اینترنتی وارد کردن به جهان است جاییکه با یک کلیک، به یکباره ویروس در میلیونها جا پراکنده شده و لپ تاپ ها در همه جا شروع به ترکیدن می کنند. خب مفاهیمی این چنینی بسیار بزرگترند و ما بی شک شاهد این اتفاقات خواهیم بود. آیا از یک چنین هوش مصنوعی می‌ترسم که ممکن است تهدیدی برای بشریت باشد؟ اگر به فیلمهایی مثل ماتریکس، متروپلیس، ترمیناتور یا
سریالی مثل وست ورلد نگاه کنید، تمامی از از چنین ترسی حرف می‌زنند. درواقع، در کتاب «ابرهوش صنوعی» نوشته نیکو بوستروم فیلسوف، او با این موضوع پیش می‌رود و مشاهده‌اش این است که یک ابرهوش مصنوعی نه تنها شاید خطرناک بشد بلکه نماینده تهدیدی نابودگر برای کل بشریت باشد. استدلال اولیه دکتر بوستروم این است که چنین سیستم‌هایی عاقبت چنان عطش سیری‌ناپذیری برای اطلاعات خواهند داشت که شاید نحوه یادگرفتن را یاد بگشیرند و سرانجام کشف کنند که اهدافی دارند که مغایر با نیازهای بشر است. دکتر بوستروم کلی دنبال کننده دارد.
او از سوی کسانی مثل الون موسک و استفن هاوکینگ حمایت می‌شود. با تمامی احترامی که برای این ذهنهای بی‌نظیر قائل هستم، اعتقاد دارم که آنها از پایه اشتباه می کنند. اکنون قسمتهای زیادیاز استدلال دکتر بوستروم است که باید از چمدان خارج شود و من زمان کافی را برای همه آنها ندارم، فقط خلاصه این را بگویم: مدعی العلوم با همه کاره بودن خیلی فرق دارد. ای‌اچ ال تهدیدی برای خدمه دیسکاوری بود تنها جاییکه ای‌اچ ال همه جوانب را در دیسکاوری فرماندهی می‌کرد. بریا این کار باید ابرهوشمند بود. باید بر همه دنیای ما سلطه داشته باشد. اینها از ویژگیهای اسکای‌نت در فیلم ترمیناتور(نابودگر) است
که درآن یک ابرهوش مصنوعی داشتیم که بر اراده بشر حک می‌راند، همه چیز و همه جا را در زمین هدایت می‌کرد. اما در عالم واقعیت این اتفاق نخواهد افتاد. ما ماشینهای ابرهوشمندی را نمی‌سازیم که هوا را کنترل کنند، که جزر و مد را جهت‌ دهند، که به ما انسانهای دمدمی‌مزاج و بی‌نظم فرمان دهند. و علاوه بر آن، اگر چنین هوش مصنوعی وجود داشته باشد، باید با اقتصادهای بشری رقابت کند، و به این وسیله برای منابع با ما رقابت کند. و در آخر-- به «سیری» این را نگویید-- همیشه می توانیم از برق آنها را بکشیم.
(خنده) ما در یک سفر باورنکردنی از هم‌فرگشتی با ماشینهای خود بسر می‌بریم. این آدمهایی که امروز هستیم آن آدمهایی که بعدا خواهیم شد نیستم. الان نگران بودن درباره خیزش یک ابرهوشمند از بسیاری جهات انحرافی خطرناک است چون خیزش محاسبات کامپیوتری خودش کلی مسائل اجتماعی و انسانی را برایمان به ارمغان می‌اورد که باید به آنها رسیدگی کنیم. چطور به بهترین نحو جامعه‌ای را برنامه ریزی کنم وقتی نیاز به نیروی کار بشری نمی‌ماند؟ چطور می‌توانم تفاهم و تعلیم را به جهان بیاورم
و هنوز احترام به تفاوتها هم باشد. چطور چطور شاید از محاسبات کامپیوتری در کمک به رسیدن به ستاره‌ها استفاده کنم؟ و همین هیجان‌انگیزه است. فرصتهایی برای استقاده از محاسبات کامپیوتری برای پیشرفت تجربه بشر اینجا و الان در دسترس ما است. و تازه اول راه هستیم. خیلی متشکرم. (تشویق)
When I was a kid, I was the quintessential nerd. I think some of you were, too. (Laughter) And you, sir, who laughed the loudest, you probably still are. (Laughter) I grew up in a small town in the dusty plains of north Texas, the son of a sheriff who was the son of a pastor. Getting into trouble was not an option. And so I started reading calculus books for fun. (Laughter) You did, too. That led me to building a laser and a computer and model rockets, and that led me to making rocket fuel in my bedroom.
Now, in scientific terms, we call this a very bad idea. (Laughter) Around that same time, Stanley Kubrick's "2001: A Space Odyssey" came to the theaters, and my life was forever changed. I loved everything about that movie, especially the HAL 9000. Now, HAL was a sentient computer designed to guide the Discovery spacecraft from the Earth to Jupiter. HAL was also a flawed character, for in the end he chose to value the mission over human life. Now, HAL was a fictional character,
but nonetheless he speaks to our fears, our fears of being subjugated by some unfeeling, artificial intelligence who is indifferent to our humanity. I believe that such fears are unfounded. Indeed, we stand at a remarkable time in human history, where, driven by refusal to accept the limits of our bodies and our minds, we are building machines of exquisite, beautiful complexity and grace that will extend the human experience in ways beyond our imagining. After a career that led me from the Air Force Academy
to Space Command to now, I became a systems engineer, and recently I was drawn into an engineering problem associated with NASA's mission to Mars. Now, in space flights to the Moon, we can rely upon mission control in Houston to watch over all aspects of a flight. However, Mars is 200 times further away, and as a result it takes on average 13 minutes for a signal to travel from the Earth to Mars. If there's trouble, there's not enough time. And so a reasonable engineering solution calls for us to put mission control
inside the walls of the Orion spacecraft. Another fascinating idea in the mission profile places humanoid robots on the surface of Mars before the humans themselves arrive, first to build facilities and later to serve as collaborative members of the science team. Now, as I looked at this from an engineering perspective, it became very clear to me that what I needed to architect was a smart, collaborative, socially intelligent artificial intelligence. In other words, I needed to build something very much like a HAL but without the homicidal tendencies.
(Laughter) Let's pause for a moment. Is it really possible to build an artificial intelligence like that? Actually, it is. In many ways, this is a hard engineering problem with elements of AI, not some wet hair ball of an AI problem that needs to be engineered. To paraphrase Alan Turing, I'm not interested in building a sentient machine. I'm not building a HAL. All I'm after is a simple brain, something that offers the illusion of intelligence.
The art and the science of computing have come a long way since HAL was onscreen, and I'd imagine if his inventor Dr. Chandra were here today, he'd have a whole lot of questions for us. Is it really possible for us to take a system of millions upon millions of devices, to read in their data streams, to predict their failures and act in advance? Yes. Can we build systems that converse with humans in natural language? Yes. Can we build systems that recognize objects, identify emotions, emote themselves, play games and even read lips?
Yes. Can we build a system that sets goals, that carries out plans against those goals and learns along the way? Yes. Can we build systems that have a theory of mind? This we are learning to do. Can we build systems that have an ethical and moral foundation? This we must learn how to do. So let's accept for a moment that it's possible to build such an artificial intelligence for this kind of mission and others. The next question you must ask yourself is, should we fear it?
Now, every new technology brings with it some measure of trepidation. When we first saw cars, people lamented that we would see the destruction of the family. When we first saw telephones come in, people were worried it would destroy all civil conversation. At a point in time we saw the written word become pervasive, people thought we would lose our ability to memorize. These things are all true to a degree, but it's also the case that these technologies brought to us things that extended the human experience in some profound ways.
So let's take this a little further. I do not fear the creation of an AI like this, because it will eventually embody some of our values. Consider this: building a cognitive system is fundamentally different than building a traditional software-intensive system of the past. We don't program them. We teach them. In order to teach a system how to recognize flowers, I show it thousands of flowers of the kinds I like. In order to teach a system how to play a game -- Well, I would. You would, too. I like flowers. Come on. To teach a system how to play a game like Go,
I'd have it play thousands of games of Go, but in the process I also teach it how to discern a good game from a bad game. If I want to create an artificially intelligent legal assistant, I will teach it some corpus of law but at the same time I am fusing with it the sense of mercy and justice that is part of that law. In scientific terms, this is what we call ground truth, and here's the important point: in producing these machines, we are therefore teaching them a sense of our values. To that end, I trust an artificial intelligence
the same, if not more, as a human who is well-trained. But, you may ask, what about rogue agents, some well-funded nongovernment organization? I do not fear an artificial intelligence in the hand of a lone wolf. Clearly, we cannot protect ourselves against all random acts of violence, but the reality is such a system requires substantial training and subtle training far beyond the resources of an individual. And furthermore, it's far more than just injecting an internet virus to the world, where you push a button, all of a sudden it's in a million places
and laptops start blowing up all over the place. Now, these kinds of substances are much larger, and we'll certainly see them coming. Do I fear that such an artificial intelligence might threaten all of humanity? If you look at movies such as "The Matrix," "Metropolis," "The Terminator," shows such as "Westworld," they all speak of this kind of fear. Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom, he picks up on this theme and observes that a superintelligence might not only be dangerous, it could represent an existential threat to all of humanity.
Dr. Bostrom's basic argument is that such systems will eventually have such an insatiable thirst for information that they will perhaps learn how to learn and eventually discover that they may have goals that are contrary to human needs. Dr. Bostrom has a number of followers. He is supported by people such as Elon Musk and Stephen Hawking. With all due respect to these brilliant minds, I believe that they are fundamentally wrong. Now, there are a lot of pieces of Dr. Bostrom's argument to unpack, and I don't have time to unpack them all,
but very briefly, consider this: super knowing is very different than super doing. HAL was a threat to the Discovery crew only insofar as HAL commanded all aspects of the Discovery. So it would have to be with a superintelligence. It would have to have dominion over all of our world. This is the stuff of Skynet from the movie "The Terminator" in which we had a superintelligence that commanded human will, that directed every device that was in every corner of the world. Practically speaking, it ain't gonna happen. We are not building AIs that control the weather,
that direct the tides, that command us capricious, chaotic humans. And furthermore, if such an artificial intelligence existed, it would have to compete with human economies, and thereby compete for resources with us. And in the end -- don't tell Siri this -- we can always unplug them. (Laughter) We are on an incredible journey of coevolution with our machines. The humans we are today are not the humans we will be then. To worry now about the rise of a superintelligence
is in many ways a dangerous distraction because the rise of computing itself brings to us a number of human and societal issues to which we must now attend. How shall I best organize society when the need for human labor diminishes? How can I bring understanding and education throughout the globe and still respect our differences? How might I extend and enhance human life through cognitive healthcare? How might I use computing to help take us to the stars? And that's the exciting thing. The opportunities to use computing
to advance the human experience are within our reach, here and now, and we are just beginning. Thank you very much. (Applause)