021-22889554
021-26703715
مشاوره آموزشی رایگان

021-22889554  |  021-26703715 مشاوره آموزشی رایگان

چگونه می‌توانیم به کامپیوتر‌ها یاد دهیم تا احساسات ما را درک کنند

Raphael Arar

How we can teach computers to make sense of our emotions

How can we make AI that people actually want to interact with? Raphael Arar suggests we start by making art. He shares interactive projects that help AI explore complex ideas like nostalgia, intuition and conversation -- all working towards the goal of making our future technology just as much human as it is artificial.


تگ های مرتبط :

Art, AI, Computers
من خودم را یک طراح و یک هنرمند می‌دانم. و در یک آزمایشگاه هوش مصنوعی کار می‌کنم. ما سعی براین داریم تا فناوری بسازیم که بخواهید با آن در آینده‌ دور تعامل کنید. نه شش ماه بعد، بلکه سال‌ها و دهه‌ها بعد. و می‌خواهیم شق‌القمر کرده و با کامپیوتر‌ها عامل به روشهای عمیق عاطفی در تعامل باشیم. پس برای انجام دادن این کار فناوری باید به جای مصنوعی بودن خیلی شبیه انسان‌ها باشد. باید آن جایگاه را بگیرد. مثل آن لطیفه‌ای که فقط شما و بهترین دوستتان می‌دانید و از شدت خنده روی زمین می‌افتید.
یا آن شکل نا امیدی که شما می‌توانید آن را فقط از کیلومترها دور بفهمید. هنر را دروازه‌ای دیدم که کمک به بستن تا شکاف بین انسان و ماشین می‌کند. برای فهمیدن اینکه این چیست، و برای فهمیدن یکدیگر می‌توانیم هوش مصنوعی را تربیت دهیم تا ما را بفهمد. توجه، برای من هنر تجربه‌ای قابل ملاحظه برای ایده‌های غیرمستقیم و احساسات است. و به نظرم یکی از مهم‌ترین شاخصه‌های انسانی ما می‌باشد. پس ما یک گروه پیچیده و پیشرفته هستیم. ما چیزی را احساس می‌کنیم که بی‌نهایت احساس دارد، و در آخر ما همه با هم فرق داریم. ما پس زمینه‌های مختلف خانوادگی داریم، تجربه‌ها و روح و روان‌های مختلف.
و این است که زندگی را جذاب می‌کند. اما این چیزی است که فناوری هوشمند را بسیار سخت می‌کند. و اکنون، تحقیق هوش مصنوعی، خب، این کار کمی طرف فناوری هم هست. و بسیار هم مفهومی است. خب، برای هر چیز کیفی درباره ما-- آن قسمت‌هایی از ما که احساسی، پویا و ذهنی هستند-- باید آن‌ها را تبدیل به یکایی کیفی کنیم: چیزی که می‌تواند نماینده‌ای برای حقایق، ارقام و کدهای کامپیوتری باشد. اما بحث اینجاست که چیزهای کیفی زیادی هستند که نمی‌توانیم از آن‌ها بگذریم. خب، به اولین باری که آهنگ مورد علاقه‌تان را شنیده‌اید، فکر کنید.
آن موقع چه کار می‌کردید؟ چه احساسی داشتید؟ آیا مو به تنتان سیخ شده؟ یا هیجان‌زده شدید؟ توضیحش سخت است، درسته؟ خب، حس برای قسمت‌هایی از ما خیلی ساده است، اما در اعماق، پیچیدگی‌های زیادی وجود دارد. و ترجمه این پیچیدگی به ماشین‌ها چیزی است که اکنون آن‌ها را تبدیل به فضاپیماهای به روز کرده. و من شما را متقاعد نمی‌کنم که می‌خواهیم به این سوال‌های عمیق فقط با کدهای صفر و یک جواب دهیم. خب، در آزمایشگاه، من هنری را برای کمک کردن به من، ساختم تا تجربه‌های بهتری برای
برای عصر جدید تکنولوژی طراحی کردم. و مثل کاتالیزور برای بهینه‌سازی راه‌های انسانی عمل می‌کند که کامپیوترها بتوانند به ما مربوط شوند. از طریق هنر، دنبال سخت‌ترین سوالات هستیم، مثل اینکه واقعا چه معنای احساسی دارد؟ یا چگونه سرگرم شویم و بدانیم که چگونه با یکدیگر همکاری کنیم؟ و چگونه بینش ما بر روی تعامل ما اثر می‌گذارد؟ خب احساسات انسان‌ها را در نظر بگیرید. در حال حاضر کامپیوترها توانایی درک احساسات ساده‌ی ما را دارند، مثل شادی، ناراحتی، عصبانیت، ترس و نفرت، با تبدیل کردن آن‌ مشخصه‌ها به کدها. اما درباره احساسات پیچیده‌تر چگونه عمل می‌کنند؟
می‌دانید آن احساساتی را که ما وقتی داریم خیلی سخت است تا آن را بروز دهیم مثل نوستالژی. خب، برای کشف کردن این کار، من هنر و تجربه‌ای را طراحی کردم، که از مردم می‌خواهد خاطره به اشتراک بگذارند. و من با یک سری متخصصان داده مشورت کردم تا بفهمم که چگونه می‌توان یک احساس وابسته به طرز تفکر شخص را فهمید و آن را تبدیل به کدهای دقیق کرد. خب، آن به اصطلاح امتیاز نوستالژی را ساختیم و این کار، قلب این تاسیسات است. برای انجامش، تاسیسات از شما می‌پرسد تا داستانی را بگویید، کامپیوتر‌ بعد از آن این احساس را برای احساسات ساده‌تر آنالیز می‌کند،
گرایش‌تان در استفاده از عبارات‌ زمان گذشته را چک می‌کند و حتی کلماتی را جستجو می‌کند که با نوستالژی همراه هستند. برای مثال خانه، دوران بچگی و گذشته بعد از آن یک نمره نوستالژی می‌سازد تا نشان دهد که داستان شما چقدر نوستالژیک است. و آن نمره نیروی پیشران پشت این مجسمه‌های نور محور است که مثل تجسم فیزیکی، مشارکت شما خدمت می‌کند. و نمره بالاتر، رنگ شفاف‌تر. مثل نگاه کردن دنیا با عینک قرمز رنگ. خب، وقتی به نمره‌تان و به نمایش فیزیکی آن نگاه می‌کنید، گاهی اوقات شما موافق یا مخالف آن هستید همانطور که فهمیدید که چگونه این تجربه برای شما احساسی می‌سازد.
اما هر وقت این شکست خورد و شما فکر کردید این هیچوقت شما را درک نمی‌کند. اما قطعه واقعا سعی میکند تا نشان دهد که احساس کردن یکدیگر کار زمان‌بری است، چگونه می‌خواهیم به کامپیوتر حس کردن را یاد بدهیم؟ حتی قسمتهای واقع گرایانه درباره انسان بودن توضیح‌شان سخت است. مثل گفتگو. آیا تا به حال شده که اینقدر خسته باشید تا از پا بیفتید؟ به کنار یک دوست بودن در کافی شاپ و یک گپ کوتاه فکر کنید. چطور می‌دانید چه زمانی نوبت شماست؟ و چه زمانی باید موضوع را عوض کنید؟ و حتی در مورد چه موضوعاتی باید بحث کنید؟
خب، بیشتر ما حتی به آن هم فکر نمی‌کنیم، چون تقریبا به عادت تبدیل شده. و وقتی سعی می‌کنیم کسی را بشناسیم میفهمیم چگونه باید با آن رفتار کنیم، و می‌فهمیم در مورد چه موضوع‌هایی باید بحث کنیم. وقتی یاد دادن به هوش باید پله به پله یادشان دهیم که چه کار کنند اکنون این احساس دلربایی دارد. اگر تا به حال سعی کرده باشید با الکسا، سیری یا دستیار گوگل حرف زده باشید، می‌توانید بگویید که هنوز خشک هستند. آیا تا بحال ناراحت شده‌اید وقتی که آن‌ها منظور شما را نمی‌فهمند و شما باید از اول عبارتی را بگویید تا فقط یک ترانه را پخش کند؟
خب، برای اعتبار طراحان ارتباط واقع بینانه بسیار سخت است. و یک رشته مستقل از جامعه شناسی وجود دارد، به آن تجزیه و تحلیل گفتگو می‌گویند، که سعی می‌کند تا طرح‌هایی را برای گفتگوهای مختلف ارائه کند. و این انواع شامل خدمات مشتری یا مشاوره یا درس دادن می‌شود. من داشتم با یک تحلیل گر گفتگو در آزمایشگاه همکاری میکردم تا به سیستم‌های هوش مصنوعیمان مکالمه‌های انسانی بیشتری را تشخیص دهد وقتی با دستیار صوتی موبایلتان یا سیستم مبنی بر صدا در ماشین‌تان تعامل می‌کنید. کمی احساس می‌کنید انسان است یا کمی خشک و نچسب. خب من یک هنر را طراحی کردم که سعی می‌کند تعامل رباتیک و دلربای خود را نشان دهد
به ما کمک کند تا بفهمیم، به عنوان طراحان، چرا مثل انسان هنوز حرف نمی‌زنند و چه کاری از دست ما ساخته است. این قطعه بات به بات نام دارد. که با یک ربات دیگر گفتگو می‌کند و در معرض عموم قرار می‌گیرد. و سرآخر آنچه اتفاق می‌افتد این است که چیزی را دارید که سعی دارد از گفتگوی انسان‌ تقلید کند، اما ناموفق است. گاهی اوقات اتفاق می‌افتد و گاهی اوقات دردسر دارد، خب کلی سو تفاهم به وجود آمد. با اینکه صحبت کردن ماشین به ماشین امکان دارد، چه دستور زبانی یا گفتاری. حتی هنوز می‌تواند حس خشک و رباتیک بودن داشته باشد.
جدا از همه امکاناتی که بررسی شد این گفتگو روح ندارد و این تغییرات ناگهانی هستند که ما را می‌سازند. خب وقتی شاید از نظر دستور زبان درست باشد و بتواند درست‌ترین هشتگ‌ها و ایموجی‌ها را استفاده کند، می‌تواند در نهایت مکانیکی و کمی ترسناک به نظر برسد. و ما آن را دره غیر طبیعی می‌نامیم می‌دانید که فاکتور خشونت فناوری که به انسان نزدیک است اما خاموش است. و دستگاه جوری کار خواهد کرد که ما مثل انسان بودن را در یک گفتگو آزمایش می‌کنیم و بخش‌هایی که در ترجمه گم شده‌اند. خب حتی چیزهایی هستند که در ترجمه گم شده‌اند، ماند بینش انسانی
در حال حاضر کامپیوتر‌ها دارند خود مختار می‌شوند. می‌توانند مواظب اشیا برای ما شوند، مثل عوض کردن دمای خانه‌هایمان بر اساس اولویت و حتی به ما در رانندگی در آزاد راهها کمک کنند. اما چیزهای خیلی زیادی که من و شما انجام می‌دهیم که واقعا ترجمه کردن آن‌ها برای ه وش مصنوعی سخت است. آخرین باری را که یک همکار یا همکلاسی قدیمی را دیده‌اید به یاد آورید. آیا همدیگر را بغل کردید یا دست داده‌اید؟ شاید دو بار فکر به آن نکنید به خاطر اینکه تجربه‌های ساخته شده‌ای را داشته‌اید که شما یک کار یا کار دیگری را انجام دهید. و به عنوان یک هنرمند حس می‌کنم دست یافتن به بینش یک نفر،
دانسته‌های ناخودآگاه ما، چیزهایی هستند که به ما کمک می‌کنند چیزهای خارق‌العاده‌ای بسازیم. ایده‌های بزرگ، از آن خلاصه، مکان‌های غیر خطی در خودآگاه ما که این نقطه اوج تجربه‌های ما است. اگر بخواهیم کامپیوترها به ما ربط پیدا کرده و به تقویت خلاقیت ما کمک کنند، احساس می‌کنم که نیاز داریم کامپیوترهایمان را درک کننده کنیم. خب می‌خواستم کاوش کنم که چگونه هر چیزی مثل بینش انسان می‌تواند مستقیما به هوش مصنوعی ترجمه شود. و من چیزی را ساختم که بینش کامپیوتر محور، در فضای فیزیکی را کاوش می‌کند. این دستگاه مسیریاب نام دارد، و این مانند یک قطب نمای نمادین است که ۴ شئ متحرک دارد
که هر کدام نشان دهنده یک جهت است، شمال، جنوب، شرق و غرب و بالای هر شئ سنسورهایی نصب شده که نشان می‌دهد چقدر شما از آن‌ها دور هستید. و داده‌ای که گرفته می‌شود و وقتی راه به پایان می‌رسد آن شئ و جهت قطب نما عوض می‌شود. و این سنسور مثل سنسور درب اتوماتیک نیست که فقط هنگامی جلوی آن هستید در را باز می‌کند. همکاری شما فقط یک بخش از این مجموعه تجربه‌های زنده است و همه آن تجربه‌هایی که روی حرکت آن تاثیر می‌گذارند. پس وقتی که شما جلوی آن قدم می‌زنید، شروع به استفاده از تمام داده‌هایی می‌کند
که این در سراسر تاریخ نمایشگاهی‌اش گرفته شده است-- یا بینش آن-- تا به شما پاسخی مبنی بر چیزهایی که از دیگران یاد گرفته است بدهد. از چشم شرکت کنندگان چیزی اتفاق افتاده است که شروع کردیم تا یاد بگیریم رتبه جزییات آن چه که نیاز داریم به منظور مدیریت انتظارها هم از انسان‌ها و هم ماشین‌ها. ما تقریبا می‌توانیم بینش خودمان را که اکنون روی کامپیوتر است ببینیم، به تصویر کشیده شدن تمام آن داده که در چشم ذهن ما فراوری شده است. آرزوی من این نوع شکل از هنر است که در داشتن تفکری متفاوت درباره بینش‌ و و چگونگی کاربرد آن را درهوش مصنوعی کمک میکند.
این‌ها مثال‌هایی بودند که چگونه از هنرم در مورد کارم استفاده می‌کنم، به عنوان یک طراح و محقق هوش مصنوعی. و من آن را برای پیشبرد نوآوری به عنوان یک راه، بسیار مهم می‌بینم. بخاطر اینکه در حال حاضر افراط‌های زیادی در زمینه هوش مصنوعی وجود دارد. فیلم‌های معروف آن را به عنوان یک نیروی مخرب نشان می‌دهند وقتی که تبلیغات هوش مصنوعی را یک نجات دهنده برای حل کردن مشکل‌ترین مشکل‌های دنیا می‌دانند اما بدون در نظر گرفتن جایی که ایستادید سخت است که انکار کنید در جهانی زندگی می‌کنید که دارد هر ثانیه بیشتر دیجیتالی می‌شود. زندگی‌های ما حول ابزارها و لوازم خانگی و دیگر چیزها می‌چرخد. و فکر نمی‌کنم که بزودی از آن کاسته شود.
من سعی بر این دارم که از ابتدا انسان بودن را بگنجانم. و این احساس را دارم که آوردن هنر به پروسه هوش مصنوعی راهی برای انجام آن است. متشکرم. (تشویق)
I consider myself one part artist and one part designer. And I work at an artificial intelligence research lab. We're trying to create technology that you'll want to interact with in the far future. Not just six months from now, but try years and decades from now. And we're taking a moonshot that we'll want to be interacting with computers in deeply emotional ways. So in order to do that, the technology has to be just as much human as it is artificial. It has to get you. You know, like that inside joke that'll have you and your best friend
on the floor, cracking up. Or that look of disappointment that you can just smell from miles away. I view art as the gateway to help us bridge this gap between human and machine: to figure out what it means to get each other so that we can train AI to get us. See, to me, art is a way to put tangible experiences to intangible ideas, feelings and emotions. And I think it's one of the most human things about us. See, we're a complicated and complex bunch. We have what feels like an infinite range of emotions, and to top it off, we're all different. We have different family backgrounds,
different experiences and different psychologies. And this is what makes life really interesting. But this is also what makes working on intelligent technology extremely difficult. And right now, AI research, well, it's a bit lopsided on the tech side. And that makes a lot of sense. See, for every qualitative thing about us -- you know, those parts of us that are emotional, dynamic and subjective -- we have to convert it to a quantitative metric: something that can be represented with facts, figures and computer code. The issue is, there are many qualitative things
that we just can't put our finger on. So, think about hearing your favorite song for the first time. What were you doing? How did you feel? Did you get goosebumps? Or did you get fired up? Hard to describe, right? See, parts of us feel so simple, but under the surface, there's really a ton of complexity. And translating that complexity to machines is what makes them modern-day moonshots. And I'm not convinced that we can answer these deeper questions with just ones and zeros alone.
So, in the lab, I've been creating art as a way to help me design better experiences for bleeding-edge technology. And it's been serving as a catalyst to beef up the more human ways that computers can relate to us. Through art, we're tacking some of the hardest questions, like what does it really mean to feel? Or how do we engage and know how to be present with each other? And how does intuition affect the way that we interact? So, take for example human emotion. Right now, computers can make sense of our most basic ones, like joy, sadness, anger, fear and disgust,
by converting those characteristics to math. But what about the more complex emotions? You know, those emotions that we have a hard time describing to each other? Like nostalgia. So, to explore this, I created a piece of art, an experience, that asked people to share a memory, and I teamed up with some data scientists to figure out how to take an emotion that's so highly subjective and convert it into something mathematically precise. So, we created what we call a nostalgia score and it's the heart of this installation.
To do that, the installation asks you to share a story, the computer then analyzes it for its simpler emotions, it checks for your tendency to use past-tense wording and also looks for words that we tend to associate with nostalgia, like "home," "childhood" and "the past." It then creates a nostalgia score to indicate how nostalgic your story is. And that score is the driving force behind these light-based sculptures that serve as physical embodiments of your contribution. And the higher the score, the rosier the hue. You know, like looking at the world through rose-colored glasses. So, when you see your score
and the physical representation of it, sometimes you'd agree and sometimes you wouldn't. It's as if it really understood how that experience made you feel. But other times it gets tripped up and has you thinking it doesn't understand you at all. But the piece really serves to show that if we have a hard time explaining the emotions that we have to each other, how can we teach a computer to make sense of them? So, even the more objective parts about being human are hard to describe. Like, conversation. Have you ever really tried to break down the steps? So think about sitting with your friend at a coffee shop
and just having small talk. How do you know when to take a turn? How do you know when to shift topics? And how do you even know what topics to discuss? See, most of us don't really think about it, because it's almost second nature. And when we get to know someone, we learn more about what makes them tick, and then we learn what topics we can discuss. But when it comes to teaching AI systems how to interact with people, we have to teach them step by step what to do. And right now, it feels clunky. If you've ever tried to talk with Alexa, Siri or Google Assistant,
you can tell that it or they can still sound cold. And have you ever gotten annoyed when they didn't understand what you were saying and you had to rephrase what you wanted 20 times just to play a song? Alright, to the credit of the designers, realistic communication is really hard. And there's a whole branch of sociology, called conversation analysis, that tries to make blueprints for different types of conversation. Types like customer service or counseling, teaching and others. I've been collaborating with a conversation analyst at the lab to try to help our AI systems hold more human-sounding conversations.
This way, when you have an interaction with a chatbot on your phone or a voice-based system in the car, it sounds a little more human and less cold and disjointed. So I created a piece of art that tries to highlight the robotic, clunky interaction to help us understand, as designers, why it doesn't sound human yet and, well, what we can do about it. The piece is called Bot to Bot and it puts one conversational system against another and then exposes it to the general public. And what ends up happening is that you get something that tries to mimic human conversation,
but falls short. Sometimes it works and sometimes it gets into these, well, loops of misunderstanding. So even though the machine-to-machine conversation can make sense, grammatically and colloquially, it can still end up feeling cold and robotic. And despite checking all the boxes, the dialogue lacks soul and those one-off quirks that make each of us who we are. So while it might be grammatically correct and uses all the right hashtags and emojis, it can end up sounding mechanical and, well, a little creepy. And we call this the uncanny valley.
You know, that creepiness factor of tech where it's close to human but just slightly off. And the piece will start being one way that we test for the humanness of a conversation and the parts that get lost in translation. So there are other things that get lost in translation, too, like human intuition. Right now, computers are gaining more autonomy. They can take care of things for us, like change the temperature of our houses based on our preferences and even help us drive on the freeway. But there are things that you and I do in person
that are really difficult to translate to AI. So think about the last time that you saw an old classmate or coworker. Did you give them a hug or go in for a handshake? You probably didn't think twice because you've had so many built up experiences that had you do one or the other. And as an artist, I feel that access to one's intuition, your unconscious knowing, is what helps us create amazing things. Big ideas, from that abstract, nonlinear place in our consciousness that is the culmination of all of our experiences. And if we want computers to relate to us and help amplify our creative abilities,
I feel that we'll need to start thinking about how to make computers be intuitive. So I wanted to explore how something like human intuition could be directly translated to artificial intelligence. And I created a piece that explores computer-based intuition in a physical space. The piece is called Wayfinding, and it's set up as a symbolic compass that has four kinetic sculptures. Each one represents a direction, north, east, south and west. And there are sensors set up on the top of each sculpture that capture how far away you are from them. And the data that gets collected
ends up changing the way that sculptures move and the direction of the compass. The thing is, the piece doesn't work like the automatic door sensor that just opens when you walk in front of it. See, your contribution is only a part of its collection of lived experiences. And all of those experiences affect the way that it moves. So when you walk in front of it, it starts to use all of the data that it's captured throughout its exhibition history -- or its intuition -- to mechanically respond to you based on what it's learned from others. And what ends up happening is that as participants
we start to learn the level of detail that we need in order to manage expectations from both humans and machines. We can almost see our intuition being played out on the computer, picturing all of that data being processed in our mind's eye. My hope is that this type of art will help us think differently about intuition and how to apply that to AI in the future. So these are just a few examples of how I'm using art to feed into my work as a designer and researcher of artificial intelligence. And I see it as a crucial way to move innovation forward. Because right now, there are a lot of extremes when it comes to AI.
Popular movies show it as this destructive force while commercials are showing it as a savior to solve some of the world's most complex problems. But regardless of where you stand, it's hard to deny that we're living in a world that's becoming more and more digital by the second. Our lives revolve around our devices, smart appliances and more. And I don't think this will let up any time soon. So, I'm trying to embed more humanness from the start. And I have a hunch that bringing art into an AI research process is a way to do just that. Thank you.
(Applause)