021-22889554
021-26703715
مشاوره آموزشی رایگان

021-22889554  |  021-26703715 مشاوره آموزشی رایگان

فناوری تغییرشکل شناخت ما را از کار تغییر خواهد داد

Sean Follmer

Shape-shifting tech will change work as we know it

What will the world look like when we move beyond the keyboard and mouse? Interaction designer Sean Follmer is building a future with machines that bring information to life under your fingers as you work with it. In this talk, check out prototypes for a 3D shape-shifting table, a phone that turns into a wristband, a deformable game controller and more that may change the way we live and work.


تگ های مرتبط :

Collaboration, Computers, Design
ما با ابزار تکامل یافته ایم، و ابزار با ما تکامل یافته اند. نیاکان ما این تبرهای دستی را یک و نیم میلیون سال پیش ساختند و بطوری آنها را شکل دادند که نه تنها مناسب کارشان بود بلکه ابزار خوشدستی هم بودند اما، در طول سال ها ابزار بیشتر و بیشتر تخصصی شدند. این ابزار پیکرتراشی در طول کاربردشان تکامل یافته اند، و هر کدام دارای شکل متفاوتی است که با کاربردش تناسب دارد. و آنها مهارت دست ما را بکار می گیرند تا با دقت خیلی بیشتری کارمان را انجام دهیم. ولی همینطور که ابزار پیشرفته و پیشرفته تر شده اند، به راه های پیشرفته تری هم برای کنترل آنها نیاز داریم.
پس طراحان در خلق رابط ها خیلی خبره شدند، رابط هایی که اجازه می دهند همزمان با تنظیم چند پارامتر، به کارهای دیگر نیز بپردازیم، مانند عکس گرفتن و تغییر دادن فوکوس یا روزنه آن. اما رایانه بطور اساسی طرز فکر ما را در مورد ابزار تغییر داده، چون محاسبات، پویا است. به همین دلیل می تواند میلیون ها کار انجام دهد و میلیون ها کاربرد داشته باشد. هرچند که رایانه ها همان حالت فیزیکی ثابت را برای همه ی این کاربردها دارند و نیز همان عناصر ارتباطِ ثابت را دارا هستند. من عقیده دارم، که این اساسا یک مشکل هست، چون به ما اجازه نمی دهد تا با دستانمان تعامل داشته باشیم
و از آن مهارت غنی که در بدن مان هست استفاده کنیم. و باور من این است که، بعدش باید به رابط هایی نیاز داشته باشیم که بتوانند این مهارتهای والا را از ما دریافت کنند و نیز بتوانند بصورت فیزیکی با ما منطبق شوند و به ما اجازه تعامل با شیوه هایی نو بدهند و این همان کاری است که من در آزمایشگاه رسانه ی MIT و حالا دراستنفورد می کنم. پس به کمک همکارانم "دنیل لایتینگر" و "هیروشی ایشی" ما inFORM را ساختیم، جایی که رابط رایانه از روی صفحه بیرون می آید و می توان به صورت فیزیکی با آنها کار کرد. یا می توان اطلاعات سه بعدی را به شکل فیزیکی به تصویر کشید
و آن را لمس و احساس کرد تا آن را به شیوه هایی نو درک کرد. یا می توان با حرکت دستها و دستکاری کردن مستقیم یک پیکره دیجیتالی را شکل داد و تراشید همچنین عناصر برقراری ارتباط می توانند از سطح برخیزند و به دلخواه ما تغییر یابند. و ایده این است که برای هر کاربرد جدایی، حالت فیزیکی میتواند با کاربرد ما سازگار شود. و من معتقدم این کار بیانگر روشی نو است که میتوانیم از راه فیزیکی سازی اطلاعات با آن تعامل برقرار کنیم. حالا سوال این است: چطور آن را به کار به کار بگیریم؟ معمولا، طراحان شهری و معماران، مدلهایی فیزیکی از شهرها و ساختمان ها می سازند تا آنها را بهتر متوجه شوند.
پس من و "تونی تانگ" در "آزمایشگاه رسانه" رابط کاربری بر پایه inFORM ساختیم تا به طراحان شهری، اجازه طراحی کردن و دیدن کل شهر را بدهد. و حالا میتوانید دور آن قدم بزنید، اما این طراحی پویا و فیزیکی است، و میتوانید مستقیما با آن تعامل کنید یا از نماهای گوناگون بررسی اش کنید، مثلا جمعیت مردم یا اطلاعات ترافیکی رو اما به صورت فیزیکی در آمده. همچنین باور داریم که این نمایشگرهای اَشکال پویا میتوانند تغییری واقعی در روش همکاری از راه دور با افراد دیگر ایجاد کند. پس زمانی که حضوری با هم کار میکنیم، من نه تنها به صورت شما نگاه میکنم، بلکه اشیا رو دستکاری و کنترل هم می کنم
و این کار بسیار سختی است وقتی از ابزاری مثل اسکایپ اسفتاده می کنین. بنابراین با اسفتاده از inFORM می توانید به صفحه نمایش نفوذ کنین و اشیا رو از دور مدیریت کنید. پس ما از پین های نمایشگر برای نمایش دستان افراد استفاده کردیم، که بهشون اجازه میده واقعا اشیا رو از راه دور لمس و کنترل کنند. همچنین می توانید روی اطلاعت سه بعدیِ ساخت شده نیز همکاری و مدیریت داشته باشین، تا بتونید هم مدریتش کنین هم هرجایی شون رو تغییر بدین. و این به کاربران اجازه میده که به روشی غنی تر نسبت به ابزارهای سنتی روی این نوع جدید از اطلاعات سه بعدی همکاری داشته باشن. همچنین می توانید اشیاء موجود رو هم وارد صحنه کنید، این اشیا از یک سو دریافت خواهند شد و به جهتی دیگر فرستاده می شوند.
یا میتوانید شیئی داشته باشین که بین دو نقطه پیوند خورده، تا وقتی توپ رو از یک سمت حرکت میدم، در سمت دیگر هم حرکت بکنه. و ما اینکارو با دریافت دستور کاربر از راه دور، به وسیله یک دوربین حسگر عمیق شبیه به «کینکت» مایکروسافت انجم میدیم. حالا، شاید براتون سئوال باشه که این ابزار چطور کار میکنه، در اصل، ماهیت این، ۹۰۰ تا بازوی محرک خطی هست که به این رابط های مکانیکی متصل هستند که اجازه میده حرکت‌های‌شان به این پین ها در بالا منتقل بشه. پس این، در مقایسه با اتفاقاتی که در «سرن» درجریانه اونقدرها پیچیده نیست، اما ساختش برای ما خیلی وقتگیر بود. برای همین هم با یک موتور ساده شروع کردیم،
فقط یک محرک خطی، و بعدش باید تخته مداری معمولی برای کنترل اونها طراحی می کردیم. و بعد باید کلی از اونها درست می کردیم. پس مشکل داشتن ۹۰۰ تا از چیزی اینه که مجبورید هر مرحله رو ۹۰۰ بار تکرار کنید. و این یعنی کار خیلی زیادی میشه. پس یک جوری یک مینی-سوییت شاپ در «مدیا لب» تهیه کردیم و دانشجوهای تازه وارد رو آوردیم و متقاعدشون کردیم "تحقیق" کنند -- (خنده) و آخر شبها فیلم ببینن و پیتزا بخورن و کلی کارهای سخت دیگه رو انجام بدن. می دونین که -- تحقیقات. (خنده تماشاگران)
اما بگذریم، فکر میکنم در مورد انجام کارهایی که در inFORM اجازه داشتیم، خیلی هیجان داشتیم. به گونه ای افزایشی، داریم از گوشی های همراه بهره می بریم، و بازخورد ادامه داره. اما گوشی های همراه، مثل رایانه ها، برای کارهای خیلی متفاوتی استفاده میشن. خب برای صحبت کردن، وبگردی بازی کردن، عکس گرفتن یا انجام یک میلیون کار دیگه ازش استفاده میشه. ولی بازم، برای انجام هر کاری، همان شکل فیزیکی همیشگی رو دارن. برای همین می خواستیم بدونیم چطور می تونیم بعضی از این برهم کنش ها رو که در inFORM توسعه داده بودیم به گوشی های همراه وارد کنیم.
پس در استنفورد، این نمایشگر جدید قابل لمس رو ساختیم که یک وسیله متحرک است با آرایه ای از محرک های خطی که میتونه تغییر شکل بده، پس می توانید در دست تان هرجا که باشید، هنگام مطالعه حسش کنید. یا می توانید در جیب تان انواع جدیدی از احساسات لمسی رو حس کنید که غنی تر از ویبره هستند. یا دکمه هایی که از یک گوشه بیرون می آیند که اجازه میده تعامل کنید که کجا میخواهید باشند. یا می توانید بازی کنید و دکمه های واقعی داشته باشید. می توانستیم این کارها را بکنیم با استفاده از تعبیه کردن 40 محرک خطیِ کوچک درون وسیله، و این اجازه میده نه تنها لمس شون کنید
بلکه تغییرشان هم بدهید. اما همچنین به راهای جدیدی هم برای خلق تغییر شکل های پیچیده تر نگاه میکردیم پس از محرک های پنوماتیک برای خلق یک وسیله تبدیل شونده استفاده کردیم که میتوانید از چیزی که شبیه به یک تلفن است... به یک مج بند در حرکت برسید. و من و «کن ناکاگاکی» با هم در «مدیا لب»، این نسخه با رزولوشن بالا رو ساختیم که از یک آرایه سروو موتور برای عوض شدن از یک مچ بند تعاملی به یک وسله لمسی به یک تلفن بهره میبره. (خنده تماشاگران) و همچنین علاقه داشتیم به نگاه کردن به روش هایی که کاربران واقعا رابط ها رو تغییر بدهند
به شکلی که میخواهند از ابزار استفاده کنند. پس می توانید چیزی شبیه به کنترلگر بازی را بسازید و بعد سیستم می فهمد که به شکلی در آمده و حالتش را عوض میکند. بنابراین، این نقطه کجاست؟ از این جا چطور پیش برویم؟ فکر میکنم، واقعا، جایی که ما امروز هستیم در این عصیر جدید از اینترنت اشیا هست، جایی که رایانه ها رو همه جا داریم -- اونها در جیب های ما هستن، در دیوار ها هستن، اونها در هر وسیله ای که در پنج سال آینده بخرید هستند، ولی چه میشد اگر فکرکردن در مورد اشیا رو متوقف می کردیم و به جاش به محیط پیرامون فکر میکردیم؟
اینکه چطور می توانیم مبلمان هوشمند داشته باشیم یا اتاق های هوشمند یا محیط زیست هوشمند یا شهر هایی که میتوانند فیزیکی با ما سازگار شوند، و اجازه میدن ما راه های جدیدی رو برای همکاری با مردم و انجام وظایف جدید امتحان کنیم؟ پس برای «هفته طراحی میلان» ما «تبدیل شوند» رو ساختیم، که یک نسخه اندازه میز از این نوع نمایشگر های تعاملی است، که میتواند اشیا فیزیکی رو روی سطح جابجا کند، برای مثال، برداشتن کلیدتان را یادآوری کند. اما همچنین میتواند به روشهای متفاوتی از تعامل تبدیل شود. پس اگر میخواهید کار کنید، می تواند به سیستم کار شما تغییر یابد.
و همچنین وقتی یک ابزار می آورید، همان طور که نیاز دارید تغییر میکند و اشیاء دیگر را برای تکمیل کردن اهداف شما برایتان می آورد. پس، در خاتمه، واقعا فکر میکنم باید درمورد روشهایی اساسا متفاوت در تعامل با رایانه ها به فکر بپردازیم. ما رایانه هایی نیاز داریم که می توانند فیزیکی با ما سازگار شوند و به روشهایی که ازشون استفاده میکنیم سازگار شوند و واقعا مهارت دستان ما را با توانایی ما در تفکر خصوصا در مورد اطلاعاات با فیزیکی کردن اطلاعات به کار بگیرند. اما نگاه به جلو، فکر میکنم باید فراتر از این برویم، فراتر از ابزار، تا واقعا درمورد راههای جدید که میتوان مردم را جمع کرد، فکر کنیم،
و اطلاعات مان را وارد دنیا کنیم، و به محیط زیستی هوشمند فکر کنیم که می تواند با ما، فیزیکی سازگار شود. پس با این، شما را ترک می کنم. بسیار سپاسگزام. (تش
We've evolved with tools, and tools have evolved with us. Our ancestors created these hand axes 1.5 million years ago, shaping them to not only fit the task at hand but also their hand. However, over the years, tools have become more and more specialized. These sculpting tools have evolved through their use, and each one has a different form which matches its function. And they leverage the dexterity of our hands in order to manipulate things with much more precision. But as tools have become more and more complex, we need more complex controls to control them.
And so designers have become very adept at creating interfaces that allow you to manipulate parameters while you're attending to other things, such as taking a photograph and changing the focus or the aperture. But the computer has fundamentally changed the way we think about tools because computation is dynamic. So it can do a million different things and run a million different applications. However, computers have the same static physical form for all of these different applications and the same static interface elements as well. And I believe that this is fundamentally a problem,
because it doesn't really allow us to interact with our hands and capture the rich dexterity that we have in our bodies. And my belief is that, then, we must need new types of interfaces that can capture these rich abilities that we have and that can physically adapt to us and allow us to interact in new ways. And so that's what I've been doing at the MIT Media Lab and now at Stanford. So with my colleagues, Daniel Leithinger and Hiroshi Ishii, we created inFORM, where the interface can actually come off the screen and you can physically manipulate it.
Or you can visualize 3D information physically and touch it and feel it to understand it in new ways. Or you can interact through gestures and direct deformations to sculpt digital clay. Or interface elements can arise out of the surface and change on demand. And the idea is that for each individual application, the physical form can be matched to the application. And I believe this represents a new way that we can interact with information, by making it physical. So the question is, how can we use this? Traditionally, urban planners and architects build physical models
of cities and buildings to better understand them. So with Tony Tang at the Media Lab, we created an interface built on inFORM to allow urban planners to design and view entire cities. And now you can walk around it, but it's dynamic, it's physical, and you can also interact directly. Or you can look at different views, such as population or traffic information, but it's made physical. We also believe that these dynamic shape displays can really change the ways that we remotely collaborate with people. So when we're working together in person, I'm not only looking at your face
but I'm also gesturing and manipulating objects, and that's really hard to do when you're using tools like Skype. And so using inFORM, you can reach out from the screen and manipulate things at a distance. So we used the pins of the display to represent people's hands, allowing them to actually touch and manipulate objects at a distance. And you can also manipulate and collaborate on 3D data sets as well, so you can gesture around them as well as manipulate them. And that allows people to collaborate on these new types of 3D information in a richer way than might be possible with traditional tools. And so you can also bring in existing objects,
and those will be captured on one side and transmitted to the other. Or you can have an object that's linked between two places, so as I move a ball on one side, the ball moves on the other as well. And so we do this by capturing the remote user using a depth-sensing camera like a Microsoft Kinect. Now, you might be wondering how does this all work, and essentially, what it is, is 900 linear actuators that are connected to these mechanical linkages that allow motion down here to be propagated in these pins above. So it's not that complex compared to what's going on at CERN, but it did take a long time for us to build it.
And so we started with a single motor, a single linear actuator, and then we had to design a custom circuit board to control them. And then we had to make a lot of them. And so the problem with having 900 of something is that you have to do every step 900 times. And so that meant that we had a lot of work to do. So we sort of set up a mini-sweatshop in the Media Lab and brought undergrads in and convinced them to do "research" -- (Laughter) and had late nights watching movies, eating pizza and screwing in thousands of screws.
You know -- research. (Laughter) But anyway, I think that we were really excited by the things that inFORM allowed us to do. Increasingly, we're using mobile devices, and we interact on the go. But mobile devices, just like computers, are used for so many different applications. So you use them to talk on the phone, to surf the web, to play games, to take pictures or even a million different things. But again, they have the same static physical form for each of these applications. And so we wanted to know how can we take some of the same interactions
that we developed for inFORM and bring them to mobile devices. So at Stanford, we created this haptic edge display, which is a mobile device with an array of linear actuators that can change shape, so you can feel in your hand where you are as you're reading a book. Or you can feel in your pocket new types of tactile sensations that are richer than the vibration. Or buttons can emerge from the side that allow you to interact where you want them to be. Or you can play games and have actual buttons. And so we were able to do this
by embedding 40 small, tiny linear actuators inside the device, and that allow you not only to touch them but also back-drive them as well. But we've also looked at other ways to create more complex shape change. So we've used pneumatic actuation to create a morphing device where you can go from something that looks a lot like a phone ... to a wristband on the go. And so together with Ken Nakagaki at the Media Lab, we created this new high-resolution version that uses an array of servomotors to change from interactive wristband to a touch-input device to a phone.
(Laughter) And we're also interested in looking at ways that users can actually deform the interfaces to shape them into the devices that they want to use. So you can make something like a game controller, and then the system will understand what shape it's in and change to that mode. So, where does this point? How do we move forward from here? I think, really, where we are today is in this new age of the Internet of Things, where we have computers everywhere -- they're in our pockets, they're in our walls,
they're in almost every device that you'll buy in the next five years. But what if we stopped thinking about devices and think instead about environments? And so how can we have smart furniture or smart rooms or smart environments or cities that can adapt to us physically, and allow us to do new ways of collaborating with people and doing new types of tasks? So for the Milan Design Week, we created TRANSFORM, which is an interactive table-scale version of these shape displays, which can move physical objects on the surface; for example, reminding you to take your keys.
But it can also transform to fit different ways of interacting. So if you want to work, then it can change to sort of set up your work system. And so as you bring a device over, it creates all the affordances you need and brings other objects to help you accomplish those goals. So, in conclusion, I really think that we need to think about a new, fundamentally different way of interacting with computers. We need computers that can physically adapt to us and adapt to the ways that we want to use them and really harness the rich dexterity that we have of our hands,
and our ability to think spatially about information by making it physical. But looking forward, I think we need to go beyond this, beyond devices, to really think about new ways that we can bring people together, and bring our information into the world, and think about smart environments that can adapt to us physically. So with that, I will leave you. Thank you very much. (Applause)