021-22889554
021-26703715
مشاوره آموزشی رایگان

021-22889554  |  021-26703715 مشاوره آموزشی رایگان

آیا می‌توانیم حواس جدیدی برای انسان خلق کنیم؟

David Eagleman

Can we create new senses for humans?

As humans, we can perceive less than a ten-trillionth of all light waves. "Our experience of reality," says neuroscientist David Eagleman, "is constrained by our biology." He wants to change that. His research into our brain processes has led him to create new interfaces -- such as a sensory vest -- to take in previously unseen information about the world around us.


تگ های مرتبط :

Senses, Brain, Technology
ما از اجزای بسیار کوچک ساخته شده ایم، و در یک جهان بسیار بزرگ جا گرفته ایم، در حقیقت ما در درک واقعیت تبحر نداریم، در هیچ مقیاسی، به این خاطر که مغز ما به این اندازه تکامل پیدا نکرده است که جهان را درک کند. بجای آن ما دراین تکه کوچک فهم گیر افتاده ایم، درست در وسط. اما عجیب است که در این تکه کوچکی که ما خانه آن را می نامیم بیشتر فعالیتهایی که در حال اتفاقند را نمی بینیم. همين رنگهاى دنیای ما را در نظر بگيريد. اینها امواج نورهستند اشعه هایی الکترومغناطیسی که اشیا را حرکت میدهند و با گیرنده های خاص در پشت چشم ما برخورد میکنند
اما ما همه امواج موجود را نمی‌بینیم در حقیقت چیزی که میبینیم کمتر از ده تریلون چیزیست که در آنجا موجود است. بنابراین شما امواج رادیویی و مکروفری و اشعه ایکس و گاما را داريد كه هم اکنون از بدن شما میگذرند و کاملا از آنها بی خبرید، چون برای گرفتنشان مجهز به گیرنده های بیولوژیکی مناسب نیستید. هزاران مکالمات تلفنی وجود دارد که هم اکنون از بدن شما میگذرند و شما کاملا از انها غافلید. و این به آن معناست که بصورت ذاتی قابل دیدن نیستند. مارها توانایی دیدن اشعه ماورا قرمز را دارند، زنبورهای عسل برای دیدن جهان از اشعه ماورا بنفش استفاده میکنند
و ما دستگاههایی در داشبورد ماشین مان میسازیم که سیگنالها ر در حوزه فرکانسهای رادیویی بگیرند، و دستگاهایی در بیمارستانها میسازیم که دامنه اشعه اکس را دریافت کنند. اما شما هیچکدام از ینها را احساس نمی‌کنید. حداقل تا به امروز که اینطور است، چون مجهز به سنسورهای مناسب نیستید. یعنی تجربه ما از حقیقت توسط بیولوژی ما محدود شده است، و این مخالف ایده عقل سلیم است که چشمها و گوشها و اثر انگشتان ما حقایق عینی در دنیای خارج را می‌گیرند. در عوض مغز ما نمونه کوچکی از جهان بیرون است. درمیان همه حیوانات،
موجودات مختلف قسمتهای مختلف حقیقت را درک میکنند. بنابراین در دنیای کر و کور یک کنه سیگنال‌های مهم دما و اسید بوتیریک هستند؛ در دنیای اره ماهی سیاه سنسورهایش با حوزهای الکتریکی مجهز شده اند و برای اکولوژی خفاش واقعیت ساخته شده از امواج فشرده سازی هوا است. این بخشی از اکوسیستم آنهاست که می‌توانند آن را انتخاب کنند، و ما برای این در علوم یک واژه داریم. آن را «ام‌ولت» می گویند. [این کلمه در علم رفتارشناسی موجودات به معنی دریافت جهان از طریق یکی از حواس است.] که از کلمه آلمانی به معنای "جهان اطراف" گرفته شده است. که احتمالا هر حیوانی
ام‌ولت اش واقعیت جسمی او فرض شده است، چرا که ما هرگز تصور نمی کنیم که چیزی فراتر از احساسی که ما می کنیم باید وجود داشته باشد. در عوض، کاری که همه ما می کنیم قبول واقعیتی است که به ما ارائه شده. بگذارید یک آگاهی ـ بیدار کننده را انجام دهیم. تصور کنید شما یک سگ «بلد هوند» باشید.( نوعی سگ که بویایی بسیار قوی دارد) تمام دنیای شما مرتبط با بو و رایحه هست. شما پوزه بلندی دارید که ۲۰۰ میلیون گیرنده عطر و بو دارد، با سوراخ‌های بینی خیسی که مولکول‌های بو را جذب کرده و به دام می اندازند، و سوراخ‌های بینی بزرگ هستند شما حتی می تواند هوای زیادی در آن نگه دارد. برای شما همه چیز مرتبط به بو هست.
خب یک روز، با یک وحی مسیر شما را متوقف می‌‌کند. شما به صاحب‌ تان نگاه می‌کنید و فکر می‌کنید، "داشتن یک بینی ضعیف رقت‌بار مثل انسان چطوریه؟ (خنده تماشاگران) وقتی هوای کمی را در بینی تان دارید چطوریه؟ چطور نمی توانید بفهمید که در ۱۰۰ متری شما یک گربه هست، یا که همسایه شما دقیقا شش ساعت پیش در این نقطه بوده؟" ( خنده) خب چون ما انسان هستیم، ما هرگز تجربه دنیای بو را نکرده‌ایم، ما کمبود را احساس نمی‌کنیم، زیرا محکم در ام‌ولت خودمان مستقر شدیم. اما پرسش این است، آیا ما باید به همین ام‌ولت خودمان بچسبیم؟
خب به عنوان یک متخصص علم عصب شناسی، علاقمند به راهی ممکن هستم که تکنولوژی بتواند ام‌ولت ما را گسترش دهد، و اینکه چگونه تجربه انسان بودن ما تغییر خواهد کرد. می‌دانیم که می‌توانیم تکنولوژیمان را با بیولوژیمان جفت کنیم، زیرا امروزه صدها هزار نفر با شنوایی مصنوعی و بینایی مصنوعی زندگی می‌کنند. پس شیوه‌ای که کار میکند این است، یک میکرفون می‌گیری و سیگنا‌ل‌ها را تنظیم می کنی، و یک نوار الکترونیکی مستقیم وارد گوش درونی می‌گذاری. یا با ایمپلت شبکیه، یک دوربین را می‌گیری وسیگنال ها را تنظیم، و سپس یک صفحه الکترودی را مستقیما به اعصاب بینایی وصل می کنی. همانطور که حدود ۱۵ سال پیش،
خیلی از دانشمندان فکر می کردند که تکنولوژی در این خصوص کار نمی کند. چرا؟به دلیل اینکه این تکنولوژی‌ها با زبان سیلیکون ولی (منطقه‌ای در کالیفرنیا که شرکت‌های کمپوتری در آن فعالیت دارند) صحبت می‌کنند، و این دقیقا همان گفتگویی اندام‌های حسی بیولوژیکی طبیعی ما نیست. اما حقیقت این است که کار می کند: مغز تشخیص میدهد که چگونه از این سیگنال‌ها استفاده کند. ما چگونه این را می فهمیم؟ خب، راز بزرگ اینجا است: مغز شما هیچیک از اینها را نه می شوند و نه می بینید. مغز شما در سکوت و تاریکی داخل جمجمه‌ تان قفل شده. همه آنچه که او می‌بیند سیگنال‌ها هستند که ازکابل های داده های مختلف می آیند، و این همه آن چیزی هست که مغز باید با آن کار کند، نه چیزی بیشتری.
بطور شگفت‌اوری، مغز در دنبال کردن این سیگنال ها خوب هست و الگوها را استخراج و آنها را معنا می کند، بنابراین جهان درونی را می‌گیرد و در کنار هم قرار میدهد، برای جهان ذهنی. اما نکته کلیدی در اینجاست: مغز شما نمیداند و توجهی هم ندارد که داده ها را از کجا می گیرد. اطلاعات از هر کجا که بیاید، او می داند که با آن چکار بکند. و ماشین بسیار کارآمدی است. در اصل هدف کلی اش دستگاه محاسبه است، اینطور که فقط همه چیز را می گیرد و تشخیص می‌دهد که با آنها چه کند، و فکر می‌کنم طبیعت برای هرگونه
ورودی آطلاعاتی دست او را باز گذاشته. من این را P.H. مدل تکامل می‌گویم، نمی‌خواهم اینجا وارد موضوع تکنیکی آن شوم، اما P.H. مخفف Potato Head (کله سیب‌زمینی) هست، و من این اسم را برای تاکید بر همه سنسورهایی که ما می شناسیم و به آنها علاقه داریم، مانند چشمها، گوش‌ها و حس نوک انگشتانمان، آنها صرفا دستگاهای اتصال - عمل محیطی هستند. به آنها می‌چسبید، و با آنها خوب جور می شوید. مغز شما با داده هایی که واردش می‌شود میداند چکار کند. هنگامی که به حیوانات نگاه می کنید، دستگاه‌های وابسته به محیط‌ شان را پیدا می کنید. مارها حفره گرمایی دارند که با آن اشعه مادون قرمز را تشخیص می هند،
و ماهی پرتوبالگان الکتروریسپشن دارد، و موش ستاره‌ پوزه زائده ای با ۱۲ انگشت در آن دارد که با آن مدل‌های سه بُعدی را در جهان می سازد، و پرندگانی زیادی هستند که خاصیت آهن ربایی دارند که توسط آن جهت منطقه مغناطیسی زمین را تشخیص می دهند. این به معنای آن است که طبیعت بطور دائم طراحی مشابهی از مغز را انجام نمی‌دهد. در عوض، با قواعد کلی عملکرد مغز تمامی طبیعت باید نگران طراحی کردن دستگاهی جدید وابسته به محیط باشند. بسیار خوب، این به چه معنایی هست: درسی که از این سطح یاد میگیرم این است چیز واقعا خاص یا بنیادی
درباره بیولوژی نیست که ما آن را ارائه دهیم. این تنها چیزی است که ما از مسیر پیچیده تکامل به ارث بردیم. اما چیزی نیست که به آن بچسبیم، و بهترین گواه ما از این اصل، چیزیست که به آن «جانشینی حسی» می گویم. و ااشاره به دادن اطلاعات به مغز از طریق کانال های حسی غیر معمول می‌شود، و مغز تنها تشخیص می دهد که با آن چکار کند. شاید به نظر سوداگرانه باشد، اما اولین مقاله‌ در مجله نیچر در سال ۱۹۶۹ منتشر شد. خُب یک دانشمند به نام پُل بیچ ری ریتا افراد نابینا را روی صندلی تغییر شکل یافته دندانپزشکی نشاند،
و یک ویديو را تنظیم کرد، و چیزی را جلو دوربین قرار داد، و سپس فرد احساس می کرد که ضربه‌ای با شبکه مارپیچی به پشتش کمرش اصابت کرد. خب اگر شما فنجان را روی نعلبکی آن در جلوی دوربین تکان دهید، شما آن را در پشت کمر‌تان حس می‌کنید، و شگفتآور اینکه، افراد نابینا هم خیلی خوب قادر بودند که تشخیص دهند که جلوی دوربین چه هست تنها با احساس آن در پشت کمرشان. امروزه برداشتهای مدرن زیادی برای این وجود دارد. عینکهای صوتی، ویدوئی را درست در جلوی شما تهیه می کند و تبدیل به چشم انداز صوتی می کند، خب، وقتی جسمی حرکت می‌کند، دورتر و نزدیکتر می شود،
صدایی شبیه «بزز ، بزز، بزز» شبیه صدای خش تلفن است، اما بعد از چند هفته، افراد نابینا در درک اینکه چه چیزی در جلو آنها قرار دارد خیلی خوب بودند تنها بر مبنای آن چیزی که می شنیدند. نیازی نیست که حتما از طریق گوش‌هایشان باشد: این سیستم شبکه الکتروتکتال را بر پیشانی استفاده می‌کند، بنابراین هر چیزی که جلوی ویديو قرار گیرد، شما بر روی پیشانیتان آن را حس می‌کنید. چرا پیشانی؟ زیرا شما از آن برای چیزهای دیگر استفاده نمی کنید. مدرن‌ترین تجسم را دروازه مغز می‌گویند، که کمی الکتروگرید هست که بر روی زبان شما قرار می‌گیرد، و این ویدئو به سیگنال‌های الکتروتاکتیل تبدیل میشوند،
و افراد نابینا در استفاده از این بسیار خوب هستند که می‌توانند توپ را در تور پرتاب کنند، یا مسیر موانع پیچیده را بیابند . آنها از طریق زبانشان می بینید. خب، کاملا به نظر دیوانگی است، درسته؟ اما به خاطر داشته باشید، همه بینایی‌ها سیگنال‌های الکتروشیمیایی که در مغز ما عبور می‌کنند. مغز شما نمی‌داند که سیگنال‌ها از کجا می‌آیند. تنها تشخیص می‌هد که با آنها چکار بکند. خب علاقه من در آزمایشگاهم پیدا کردن جانشینی حسی برای اشخاص ناشنوا است، و این پروژه ای است که من در آزمایشگاهم با دانشجویی به نام اسکات نوویچ که این را برای پایانامه دکترایش برداشته،کار می کنم.
این کاریست که ما می‌خواهیم بکنیم: می خواهیم صدای اطراف را گرفته و به شکلی به چیزی که افراد ناشنوا بتوانند آن را بشنوند تبدیل کنیم. می‌خواهیم این کار را با توجه به قدرت و حضور محاسبات قابل حمل انجام دهیم. می‌خواهیم مطمئن شویم که بتواند با تلفن همراه یا تبلت نیز کار کند، می‌خواهیم پوشیدنی هم باشد، چیزی که زیر لباست آن را بپوشی. خب مفهوم و تصویر کلی این است. خب من که حرف می زنم صدای من توسط تبلت گرفته می‌شود، و سپس در جلیقهای نقشه برداری می شود که آن را موتور ارتعاشی تبدیل می‌کند، درست مثل موتور در تلفن همراه شما. خب همانطور که من حرف می‌زنم،
صدا به الگوی ارتعاشی در جلیقه تبدیل می‌شود. خب خیلی قابل فهم نیست: این تبلت صدای بلوتوث را انتقال می‌دهد، و من الان جلیقه را پوشیده‌ام. خب همانطور که من صحبت می‌کنم--( تشویق )-- صدا به الگوی پویا ارتعاشی تبدیل می‌شود. من صدای جهان اطرافم را حس می‌کنم. سپس ما آن را با افراد ناشنوا آزمایش کردیم، و معلوم شد که تنها پس از مدت کوتاهی، افراد شروع به حس کردن آن می‌کنند، و می‌توانند زبان جلیقه را بفهمند. این جاناتان است که ۳۷ ساله است و فوق لیسانس دارد. او کاملا ناشنوا متولد شده، بدین معنا که بخشی از ام‌ولت او در دسترس او نیست.
ما جاناتان را با جلیقه‌اش برای چهار روز، و هر روز دو ساعت آموزش دادیم، و این روز پنجم اوست. اسکات نوویچ: تو. دیوید ایگلمن: خب اسکات یک لغت می‌گوید، جاناتان آن را از طریق جلیقه حس می‌کند، و آن را روی تخته می‌نویسد. اسکات نوویچ: کجا، کجا. دیوید اینگلمن: جاناتان قادر به ترجمه این الگوی پیچیده ارتعاشی برای درک آنچه که به او گفته می شود هست. اسکات نوویچ: لمی، لمس. دیوید ایگلمن: او اینکار را -- ( تشویق)--- جاناتان اینکار را آگاهانه انجام نمی‌دهد، زیرا الگوهای ارتعاشی بسیار پیچیده هستند، اما مغز او شروع به بازکردن قفل الگوهایی میکند که اجازه میدهند به او تا بفهمد
که اطلاعات چه معنایی دارند ، و انتظار ما همین است، بعد از پوشیدن این برای حدود سه ماه، او تجربه ادراکی شنوایی مستقیمی خواهد داشت به همان روشی که فرد نابینا انگشتانش را روی خط بریل می کشاند. معنا مستقیما از صفحه بدون هیچ دخالت آگاهانه‌ای می‌اید. خب این تکنولوژی توانایی آن را دارد که همه چیز را تغییر دهد، زیرا تنها امکان برای ناشنوایی کاشت حلزون هست، و این مستلزم جراحی بزرگی هست. این روش می‌تواند ۴۰ برابر ارزانتر از کاشت حلزونی باشد، که این تکنولوژی در سطح جهان ارائه می‌شود، حتی برای فقیرترین کشورها. ما با نتیجه ای که از جانشینی حسی گرفتیم بسیار تشویق شدیم، اما آنچه که ما بیشتر درباره اش فکر کردیم اضافه کردن حس هست.
چگونه می‌توان از تکنولوژی مثل این استفاده برد تا یک حس کاملا نو را برای گسترش دادن به ام‌ولت انسانی اضافه کرد؟ برای مثال، آیا ما می توانیم در زمان واقعی از طریق اینترنت مستقیما به مغز کسی اطلاعات را بدهیم، و آیا تجربه ادراکی مستقیمی را تجربه خواهند کرد؟ خب این آزمایشی هست که ما در آزمایشگاه انجام می‌دهیم. موضوع احساس اراءه اطلاعات در زمان واقعی از شبکه داده برای پنج ثانیه هست. سپس ، دو دکمه نمایان می‌شود، او باید انتخاب کند. او نمیداند که چه اتفاقی در حال رخ دادن هست. یک انتخاب می‌کند، و بعد از یک ثانیه بازخورد دریافت می کند. این است:
فرد هیچ ایده ای از معنای الگوها ندارد، اما می بینیم که اودراینکه کدام دکمه را فشار دهد بهتر می‌شود. او نمی داند که ما در زمان واقعی از بازار سهام اطلاعاتی را به او می دهیم، و او برای خرید و فروش تصمیم می گیرد. ( خنده تماشاگران) و بازخورد به او می‌گوید که آیا او درست انتخاب کرده یا نه. آنچه که ما می‌بینیم این است، ایا می توانیم ام‌ولت انسان را گسترش دهیم بطوری که بعد از چند هفته، یک تجربه ادراکی مستقیم ازحرکت اقتصادی دراین سیاره را داشته باشیم. خب ما بعدا گزارش خواهیم داد که این چگونه پیش می رود. ( خنده تماشاگران) این کار دیگریست که ما انجام می‌دهیم:
طی سخنرانیهای امروز صبح، ما بطور اتومانیک هش‌تگ TED2015 را ارسال کردیم، و تجزیه و تحلیل احساسات خودکار را انجام دادیم، بدین معنا که، افراد از واژه های مثبت، منفی یا خنثی استفاده می‌کنند؟ در حالی که این در جریان بود، من این را حس می‌کردم، و به انبوهی از احساسات هزاران نفر در زمان واقعی متصل شده بودم، و این تجربه انسانی جدیدی است زیرا اکنون می‌دانم که همه چکار می کنند و چقدر این را دوست دارید. (خنده) (تشویق) این تجربه بزرگتری از آنچه که یک انسان بطور طبیعی تجربه می کند هست. ما همچنین ام‌ولت خلبانان را گسترش دادیم.
خب در این مورد، جلیقه ۹ عمل مختلف از این کوادکوپتر که شامل، اوج گیری ، انحراف، چرخیدن، غلتیدن و جهت گیری است را دریافت می کند و باعث بهبودی در توانایی خلبان برای پرواز وهدایت آن می شود. اساسا شبیه به گسترش پوست او تا کوادکوپتر می باشد. و تازه اول راه است. آنچه که ما می بینیم یک کابین خلبان مدرن پر از دستگاهای اندازه گیری است و به جای تلاش برای خواندن همه اینها، می‌توانید آنها را احساس کنید. در دنیای ازاطلاعات اکنون زندگی می کنیم، و تفاوت بین دسترسی داشتن به اطلاعات زیاد هست تا تجربه کردن آنها. بنابراین فکر می‌کنم انتهای برای
گسترش افق انسانی وجود ندارد تنها تصور کنید یک فضانورد قادر باشد که وضعیت کلی ایستگاه فضایی بین المللی را حس کند، یا برای این موضوع بتوانید موقعیت سلامتی غیر قابل دیدن خودتان را بدانید، مانند، قند خون و موقعیت میکروب هایتان، یا زاویه دیدی برابر۳۶۰ درجه داشته باشید یا اشعه های مادون قرمز یا ماوراء بنفش را ببینید. خب هدف این است: همانطور که به آینده می‌رویم، بطور فزاینده‌ای قادر خواهیم بود که دستگاه های جانبی خودمان را انتخاب کنیم. دیگر نیازی به منتظر ماندن برای استعدادهای حسی که طبیعت به ما میدهد در بازده زمانی آن نداریم، اما در عوض، مانند هر پدر و مادر خوبی، طبیعت ابزاری که برای
پیش رفتن و پیدا کردن مسیرمان نیاز است را به ما داده . خب پرسش اکنون این است، چگونه می خواهید پیش بروید و چگونه می‌خواهید جهان را تجربه کنید؟ سپاسگزارم. ( تشویق تماشاگران) کریس اندرسون: می توانی این را احساس کنی؟ دیوید اینگلمن: آه بله. در واقع، این اولین بار بود که من در این جلیقه حاضرین را حس کردم. جالبه. این مثل یک ماساژ می ماند.( خنده تماشاگران) کریس اندرسون: تویترشلوغ و به هم ریخته خواهد شد. دیوانه خواهد شد. خوب همینطور آزمایش بازار سهام. این می تواند اولین آزمایشی باشد که از بابت پیدا کردن بودجه ا برای همیشه تضمین شود، درسته، اگر موفق شود؟
دیوید ایگلمن: درسته، لازم نیست که دیگر به موسسه ملی بهداشت بنویسم. کریس اندرسون: خب برای چند لحظه تردید کن، منظورم این است، شگفت‌اور است، اما این گواه ... که جانشینی حسی کار می‌کند، الزاما جانشینی احساسی کار می کند؟ منظورم این هست، ایا امکان این هست که افراد نابینا بتوانند از طریق زبانشان ببینند زیرا کرتکسهای بینایی مغز هنوز وجود دارند، و آماده برای پردازش هستند، و که این نیاز به بخشی از آن دارد؟ دیوید ایگلمن: پرسش خوبیست. ما درواقع هیچ ایده ای از آنچه محدودیت های تئوریک از نوع داده‌هایی که مغز می‌گیرد را نداریم. موضوع کلی، گرچه این بطور فوق العاده ای انعطاف پذیر هست.
هنگامی که فردی نابیناست، آنچه که ما کرتکس بینایی مغز می نامیم توسط چیزهای دیگر گرفته می شود، مانند لمس کردن، شنیدن، و لغت. خب چیزی که به ما می‌گوید این است که که کرتکس مغز تنها تک فنی هست و فقط یک کار می‌کند. تنها کار مشخصی را محاسبه کرده و انجام می‌دهد. هنگامی که ما به اطراف به چیزیهای مانند خط بریل نگاه می کنیم، افراد اطلاعات را از برآمدیگی های بر روی نوک انگشتانشان حس می‌کنند. خب،تا جایی که می دانیم فکر نمی کنم هیچ دلیلی تئوریکی محدودیتی وجود داشته باشد. کریس اندرسون: اگر این تائید شود، آیا قصد داری طوفان به پا کنی. برنامه های کاربردی زیادی برایش وجود دارد. ایا برای این آماده هستی؟ بیشتر از همه برای چه چیزی هیجان داری، به کدام جهت آن را می‌خواهی ببری؟
دیوید اینگلمن: برنامه های کاربردی زیادی اینجا هست. به منظور فراتر از جانشینی حسی، چیزی که مطرح کردم درباره فضانوردا در ایستگاه های فضایی هست، آنها وقت زیادی را برای نظارت دستگاه‌ها صرف می‌کنند، در عوض می‌توانند وقت زیادی را برای چیزهای دیگر صرف کنند، زیرا آنچه که واقعا خوب هست طلاعات چند بُعدی هست. نکته کلیدی آن این است: بصیرت ما برای دیدن حباب و لبه ها خوب هست، اما برای اینکه جهان ما چگونه شده، بسیار بد است، که با داده های بسیار بسیار زیادی نمایش داده می‌شود. ما با حواسمان باید به آرامی بخزیم. پس این تنها راه برای احساس کردن حالت چیزهاست، درست مانند راهی که شما حالات بدنتان را به عنوان چیزی که وجود دارد می شناسید.
بنابراین فکر می‌کنم ماشین‌الات سنگین، ایمنی، حس موقعیت یک کارخانه، تجهیزاتی که دارید ، این که جایی هست که همه اینها فورا به آنجا می رود. کریس اندرسون: دیوید ایگلمن، این یکی از سخنرانی هایی بود که عقل را از می پراند. بسیار سپاسگزارم. دیوید ایگلمن: سپاسگزارم کریس. ( تشو
We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale. Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects
and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it. Now, it's not that these things are inherently unseeable.
Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors. Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips
are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world. Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science.
It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us. Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules,
and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter) So because we're humans, we've never experienced that world of smell,
so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human. So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera
and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine. Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull.
All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world. But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it.
And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels. So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices:
You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually
redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals. Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain
via unusual sensory channels, and the brain just figures out what to do with it. Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back,
and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing.
And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else. The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right?
But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them. So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing,
we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) --
the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me. So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest. So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day. Scott Novich: You.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board. SN: Where. Where. DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said. SN: Touch. Touch. DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months,
he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries. Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense,
to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience? So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean,
but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter) Here's another thing we're doing:
During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away. And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet. So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales,
but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe? Thank you. (Applause) Chris Anderson: Can you feel it? DE: Yeah. Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter) CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore,
right, if successful? DE: Well, that's right, I wouldn't have to write to NIH anymore. CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it? DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in.
The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of. CA: If this checks out, you're going to be deluged. There are so many possible applications for this.
Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something,
just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away. CA: David Eagleman, that was one mind-blowing talk. Thank you very much. DE: Thank you, Chris