Computer science professor Mark Brown appreciates the power of nonverb перевод - Computer science professor Mark Brown appreciates the power of nonverb русский как сказать

Computer science professor Mark Bro

Computer science professor Mark Brown appreciates the power of nonverbal communication. Calling himself a human-computer interaction specialist, Brown focuses his work on replicating characteristics of human behavior in robots or animatronic characters. Brown is leading a team that is developing and creating various computer algorithms based on how people communicate without words. These algorithms are then used to program devices, like robots, to look and act more human-like, helping to bridge the gap between man and machine.

A critical part of the human-robot gap centers on communication. When we talk with someone, words are not the only influence on a listener’s understanding. Other subtle factors – such as tone of voice, body language and eye contact – also have powerful communicative potential. Some robotics researchers have focused on gesture, tone of voice and facial expressions. Recently, for example, a group of researchers in Singapore released a computer program whose algorithm recognizes human gestures quickly and accurately. They tested the software by integrating it with ShapeTape, a special jacket that uses fiber optics and sensors to monitor the bending and twisting of hands and arms. In tests, five different users wore the ShapeTape jacket and used it to control a virtual robot through simple arm motions that represented commands such as forward, backward, faster or slower. The researchers found that 99.15% of gestures were correctly translated by their system. A particularly important achievement of this software is how easy it is to add new commands, by demonstrating a new control gesture just a few times. The next step in improving the gesture recognition system is to allow humans to control robots without the need to wear any special devices.

Brown has focused his most recent research on human gaze, the facet of nonverbal communication he finds most intriguing. “It turns out that gaze tells us all sorts of things about attention, about mental states, about roles in conversations,” he says. For example, if a person focuses his or her gaze on a specific individual while talking to a group of people, it communicates that what is being said is especially relevant to that individual.

Research also shows that when a person finishes saying something in a conversation and directs his or her gaze to one particular person, that person is likely to take the next turn speaking in the discussion. These nonverbal cues tell people where our attention is focused and what we mean when we direct a question or comment in a conversation. When people really mean what they are saying, they might open up their eyes and look at the person they are talking to and really try to communicate their message or thought through facial and other cues.

To convert these subtle cues of human communication into data and language that can be used by a robot, Brown’s team takes the same approach as the Singapore team. They break down each human cue or gesture into minute segments or sub-mechanisms – such as the direction of the eyes versus the direction of the head or how the body is oriented – which can be modeled. Then certain temporal dimensions are added to the model, such as the length of time a target is looked at. When building robots for roles in teaching, for example, Brown incorporates these nonverbal behaviors in the control software. The research team has found robot-assisted learning improves when a robot teacher uses these visual cues.

Brown’s goal is not to duplicate a human being in robot form, or have robots mimic people on a one-to-one basis. Instead, he seeks to find key mechanisms which help humans communicate effectively, reproduce them in many different robots and enable these systems to connect with humans as humans communicate with each other. He believes that this kind of robot development has significant potential for assistive technologies. For example, he wants to explore how a “smart” robot who communicates like a person might assist people with disabilities to lead fuller and more comfortable lives.
0/5000
Источник: -
Цель: -
Результаты (русский) 1: [копия]
Скопировано!
Профессор компьютерных наук Марк Браун высоко ценит власть невербальной коммуникации. Называя себя специалист взаимодействия человека с компьютером, Браун фокусируется свою работу на тиражирование характеристик поведения человека в роботов или аниматронных символов. Браун является ведущим команда, которая разрабатывает и создание различных компьютерных алгоритмов, основанных на том, как люди общаются без слов. Затем эти алгоритмы используются для программы устройств, таких как роботы, чтобы выглядеть и закон больше как человека, помогая преодолеть разрыв между человеком и машиной.Важной частью gap человека робот центров по коммуникации. Когда мы говорим с кем-то, слова, не только влияние на понимание слушателя. Другие тонкие факторы – такие как тон голоса, язык тела и зрительный контакт-также имеют мощный коммуникативный потенциал. Некоторые исследователи робототехники были сосредоточены на жест, тон голоса и лицевого выражения. Недавно например, группа исследователей в Сингапуре выпустил компьютерную программу, в которой алгоритм распознает человеческие жесты, быстро и точно. Они протестировали программное обеспечение путем интеграции с ShapeTape, Специальный куртку, которая использует волоконной оптики и датчики для мониторинга изгиб и кручение из рук и оружия. В тестах пять различных пользователей носил куртку ShapeTape и использовал его для управления виртуальный робот через простые руки движений, которые представлены команды, такие как вперед, назад, быстрее или медленнее. Исследователи обнаружили, что 99.15% жестов правильно были переведены их системы. Особенно важным достижением этого программного обеспечения является, как легко добавить новые команды, демонстрируя новый жест управления несколько раз. Следующим шагом в улучшении системы распознавания жестов, чтобы позволить людям контролировать роботов без необходимости носить каких-либо специальных устройств.Браун сосредоточил свои последние исследования на человеческий взгляд, аспект невербальной коммуникации, которые он считает наиболее интригующим. «Получается, что взгляд говорит нам всякие вещи о внимании, о психических состояниях, о ролях в беседах,» говорит он. Например если лицо его или ее взгляд на конкретное лицо во время разговора с группой людей, он общается, что говорят то, что особенно актуально для этого лица.Исследование также показывает, что, когда человек заканчивает, сказав что-то в разговоре и направляет его или ее взгляд на одного конкретного человека, что человек может принять следующий поворот выступая в ходе обсуждения. Эти невербальные сигналы рассказать людям, где сосредоточено наше внимание и то, что мы имеем в виду, когда мы направляем вопрос или комментарий в разговоре. Когда люди действительно означает, что они говорят, они могут открыть глаза и посмотреть на человека, они говорят и действительно пытаются сообщить свои сообщения или через лицевой и другие сигналы.To convert these subtle cues of human communication into data and language that can be used by a robot, Brown’s team takes the same approach as the Singapore team. They break down each human cue or gesture into minute segments or sub-mechanisms – such as the direction of the eyes versus the direction of the head or how the body is oriented – which can be modeled. Then certain temporal dimensions are added to the model, such as the length of time a target is looked at. When building robots for roles in teaching, for example, Brown incorporates these nonverbal behaviors in the control software. The research team has found robot-assisted learning improves when a robot teacher uses these visual cues.Brown’s goal is not to duplicate a human being in robot form, or have robots mimic people on a one-to-one basis. Instead, he seeks to find key mechanisms which help humans communicate effectively, reproduce them in many different robots and enable these systems to connect with humans as humans communicate with each other. He believes that this kind of robot development has significant potential for assistive technologies. For example, he wants to explore how a “smart” robot who communicates like a person might assist people with disabilities to lead fuller and more comfortable lives.
переводится, пожалуйста, подождите..
Результаты (русский) 3:[копия]
Скопировано!
профессор информатики Mark Brown оценивает власть невербальное общение.называть себя human-computer взаимодействие специалиста, браун сосредоточена его работу на тиражирование характеристики человеческого поведения в роботов или animatronic персонажей.браун, ведет команду, которая состоит в разработке и создании различных компьютерных алгоритмов, основываясь на том, как люди общаются, без слов.эти алгоритмы используются затем для программы устройств, как роботы, выглядеть и действовать более прав, как, помогая устранить разрыв между человеком и машины.важной частью прав робот разрыв центров по вопросам коммуникации.когда мы поговорим с кем - нибудь, слова не только на слушателя понимания.другие факторы, такие, как тонко тон, язык тела и зрительный контакт, также есть мощные коммуникативном потенциале.некоторые Robotics исследователи сосредоточили внимание на жест, тон и выражение лица.недавно, например, группа исследователей в сингапуре выпустила компьютерную программу, алгоритм признает права жесты, быстро и точно.они проверили программу, включив ее в shapetape специальную куртку, которая использует волоконно - оптических датчиков контроля и деформации и выкручивание рук и оружия.в тестах, пять различных пользователей был shapetape куртку и использовал его, чтобы контролировать виртуальное робот с помощью простых руку ходатайств, которые представлены такие команды как вперед, назад, быстрее или медленнее.исследователи обнаружили, что 99.15% жесты были правильно перевести их системы.особенно важным достижением этого программного обеспечения, как легко добавить новые команды, демонстрируя новые контрольные жест только несколько раз.следующим шагом в улучшении жест признания системы состоит в том, чтобы позволить людям управлять роботами без необходимости носить специальные устройства.браун сосредоточил свои самые последние исследования по правам взглядом, аспект невербальное общение, он считает наиболее интригующим."получается, что взгляд говорит нам всякие вещи о внимание, о психических расстройств, о роли в переговорах", - говорит он.например, если человек занимается его или ее взгляд на конкретные лица, во время беседы с группой людей, он сообщает, что в настоящее время сказал, что особенно актуально для этого лица.исследования также показывают, что, когда человек заканчивает говорить что - то в разговоре и направляет его или ее взгляд на одной, человек может принять следующий ход, выступая в ходе обсуждения.эти невербальные реплики сказать людям, где наше внимание сосредоточено и то, что мы имеем в виду, когда мы прямой вопрос или комментарий в разговоре.когда люди действительно имел в виду то, что они говорят, они могут открыть свои глаза и смотри в лицо говорят и действительно пытаются распространять свои послания или думал, что через лица и другие сигналы.преобразовать эти тонкие намеки человеческого общения в данных и языка, который может быть использован робот, браун, команда занимает такую же позицию, что и сингапурской команды.они ломают каждого человека сигнал или жест в минуту сегментов или суб - механизмов, таких, как направление глаза и руководством начальника или как орган, ориентированный, которые могут быть смоделированы.затем определенных временных аспектов добавляются к модели, такие, как продолжительность цель рассмотреть.в тех случаях, когда создание роботов для роли в обучении, например, браун, учитывает эти невербальное поведение в программное обеспечение системы контроля.исследовательская группа обнаружила робот помогает обучение улучшает, когда робот учитель использует эти визуальные."цель заключается не в том, чтобы дублировать человек в форме или роботы робота, имитирующих людей на индивидуальной основе.вместо этого, он пытается найти ключевые механизмы, которые помогут людям общаться, воспроизвести их в самых разных роботов и чтобы эти системы, чтобы соединиться с людьми, как люди общаются друг с другом.он считает, что такой робот обладает значительным потенциалом для развития вспомогательных технологий.например, он хочет, чтобы изучить, как "умные" робота, который общается, как человек может помочь людям с инвалидностью вести более и более комфортной жизни.
переводится, пожалуйста, подождите..
 
Другие языки
Поддержка инструмент перевода: Клингонский (pIqaD), Определить язык, азербайджанский, албанский, амхарский, английский, арабский, армянский, африкаанс, баскский, белорусский, бенгальский, бирманский, болгарский, боснийский, валлийский, венгерский, вьетнамский, гавайский, галисийский, греческий, грузинский, гуджарати, датский, зулу, иврит, игбо, идиш, индонезийский, ирландский, исландский, испанский, итальянский, йоруба, казахский, каннада, каталанский, киргизский, китайский, китайский традиционный, корейский, корсиканский, креольский (Гаити), курманджи, кхмерский, кхоса, лаосский, латинский, латышский, литовский, люксембургский, македонский, малагасийский, малайский, малаялам, мальтийский, маори, маратхи, монгольский, немецкий, непальский, нидерландский, норвежский, ория, панджаби, персидский, польский, португальский, пушту, руанда, румынский, русский, самоанский, себуанский, сербский, сесото, сингальский, синдхи, словацкий, словенский, сомалийский, суахили, суданский, таджикский, тайский, тамильский, татарский, телугу, турецкий, туркменский, узбекский, уйгурский, украинский, урду, филиппинский, финский, французский, фризский, хауса, хинди, хмонг, хорватский, чева, чешский, шведский, шона, шотландский (гэльский), эсперанто, эстонский, яванский, японский, Язык перевода.

Copyright ©2024 I Love Translation. All reserved.

E-mail: