Разобрать слово я по звукам: Звуко буквенный разбор буквы я

Транскрипция речи с открытым исходным кодом / Хабр

Однажды в конце декабря я загрузил на свой ноутбук программу под названием Whisper.cpp, надеясь использовать ее для расшифровки интервью. Я скормил ей аудиофайл, и каждые несколько секунд она выдавала одну или две строки устрашающе точной стенограммы, записывая именно то, что было сказано, с точностью, которую я никогда раньше не видел. По мере того как очереди накапливались, я чувствовал, что мой компьютер становится все горячее. Это был один из немногих случаев за последнее время, когда мой ноутбук действительно вычислял что-то сложное — в основном я использую его, чтобы просматривать веб-страницы, смотреть кино и работать в Word. Теперь в нем завелся продвинутый ИИ.

Несмотря на то, что Whisper.cpp оказалась одной из самых сложных для вычисления программ, которые когда-либо запускались на моем ноутбуке, она также является одной из самых простых программ. Если бы вы увидели ее исходный код или показали программистам ИИ, они могли рассмеяться или заплакать — это было бы все равно, что открыть физику-ядерщику, что процесс достижения холодного синтеза можно написать на салфетке. Whisper.cpp — это интеллектуальная дистилляция. Особенность современного программного обеспечения в том, что оно практически не имеет взаимозависимостей — другими словами, оно работает без помощи других программ. По сути это десять тысяч строк автономного кода, большинство из которых выполняет довольно сложную арифметику. Ее написал за пять дней Георгий Герганов, болгарский программист, который, по его собственному признанию, почти ничего не знает о распознавании речи. Герганов адаптировал ее из программы Whisper, выпущенной в сентябре компанией OpenAI, той же организацией, которая стоит за ChatGPT и dall-e. Whisper расшифровывает речь более чем на девяноста языках. Некоторое из их программного обеспечения способно на сверхчеловеческую производительность, то есть оно действительно может анализировать то, что не может человек.

Что необычного в Whisper, так это то, что OpenAI открыла его исходный код, выпустив не только код, но и подробное описание архитектуры. Они также включали все важные «веса модели»: гигантский файл чисел, указывающий силу синапса каждого соединения в нейронной сети программного обеспечения. Таким образом, OpenAI позволила любому, включая такого любителя, как Герганов, модифицировать программу. Герганов преобразовал Whisper в C++, широко поддерживаемый язык программирования, чтобы упростить загрузку и запуск практически на любом устройстве. Это звучит как логистическая деталь, но на самом деле это знак более масштабных кардинальных изменений. До недавнего времени лучшие в мире искусственные интеллекты, такие как Whisper, были исключительной прерогативой крупных технологических фирм, которые их разработали. Они существовали за кулисами, незаметно подпитывая результаты поиска, рекомендации, помощников в чате и тому подобное. Если посторонним было разрешено использовать их напрямую, их использование измерялось и контролировалось.

За последние несколько лет появились и другие программы ИИ с открытым исходным кодом, но большинство из них были разработаны в рамках проприетарных проектов обратного инжиниринга. LeelaZero, шахматный движок, представляет собой краудсорсинговую версию AlphaZero от DeepMind, лучшего в мире компьютерного игрока; LeelaZero приходилось обучать с нуля, от отдельных пользователей, это — стратегия, которая была работоспособна только потому, что программа могла учиться, играя в шахматы сама с собой. Точно так же Stable Diffusion, которая вызывает изображения из описаний, является чрезвычайно популярным клоном dall-e от OpenAI и Imagen от Google, но обученным на общедоступных данных. Whisper может быть первым искусственным интеллектом в этом классе, который был просто подарен публике. В эпоху облачного программного обеспечения, когда все наши программы, по сути, арендованы у компаний, которые их производят, я нахожу несколько странным то, что теперь, когда я скачал Whisper.cpp, никто не может отнять его у меня— даже не Герганов. Его маленькая программа превратила мой ноутбук из устройства, которое обращается к ИИ к чему-то вроде разумной машины самой по себе.

Было время, когда исследователи полагали, что распознавание речи на человеческом уровне может быть задачей «сложной для искусственного интеллекта» — и она могла бы обернуться провалом, даже на уровне ее постановки. Идея заключалась в том, что в разговорной речи было достаточно много двусмысленности, и единственный способ разобрать ее — понять, что имели в виду говорящие. На прошлой неделе я услышал по радио что-то, что для компьютера могло бы звучать как «Можете ли вы поднять «Форд» краном?» (“Can you crane a Ford?”) Но мой мозг, зная контекст разговора, плавно разрешил его как «Может ли Украина себе позволить» (“Can Ukraine afford.”). Проблемы смысла и контекста привели к тому, что на протяжении десятилетий распознавание речи считалось мерилом для области ИИ в целом. Предполагалось, что единственный способ понять речь — это действительно понять ее.

В одном важном эссе 2019 года специалист по ИИ Ричард Саттон объясняет, что ранние программы распознавания речи были загружены специальными лингвистическими базами знаний — не только о синтаксисе, грамматике и фонетике, но и о том, как форма человеческого рта ограничивала возможные звуки. Несмотря на свою сложность и продуманность, эти программы работали не очень хорошо. В 1970-х годах произошел поворот к статистическим методам, которые отказались от экспертных знаний в пользу закономерностей, извлеченных из данных — например, о том, какие звуки и слова обычно сочетаются. Успех этого подхода отразился на остальной части ИИ, что привело к тому, что эта область сосредоточила большую часть своих усилий на статистике, полученной из огромных объемов данных. Стратегия принесла свои плоды: к 1990 году передовой технологией распознавания речи потребителей была программа под названием DragonDictate, которая работала в режиме реального времени. Но Dragon требовал от пользователей четко произносить слова и делать паузы между словами и стоил девять тысяч долларов. Основное улучшение произошло в 1997 году, когда та же компания выпустила Dragon NaturallySpeaking. Вам больше не нужно было делать паузу при разговоре с ним. Тем не менее, точность действительно свободной, акцентированной или технической речи была относительно низкой. Я помню, как мой крестный отец примерно в это время хвастался системой распознавания речи в своей машине; он использовал его, чтобы позвонить домой с автомобильного телефона. Звонить было бы проще.

Программы распознавания речи все еще были слишком глючными, чтобы работать безупречно. На исправление их ошибок ушло много времени. И тем не менее, они все еще были пугающе сложными. Учебник 1999 года, в котором описывалась современная на тот момент система распознавания речи, похожая на Dragon NaturallySpeaking, занимал более четырехсот страниц; чтобы понять это, нужно было освоить сложную математику, иногда специфичную для звука, — скрытые модели Маркова, спектральный анализ и то, что называется «кепстральной компенсацией». К книге прилагался компакт-диск, содержащий тридцать тысяч строк кода, большая часть которого была посвящена капризам речи и звука. В объятиях статистики распознавание речи стало глубокой и сложной областью. Казалось, что теперь прогресс будет идти только по нарастающей и с нарастающей болью.

Но, на самом деле, произошло обратное. Как сказал Саттон в своем эссе 2019 года, семидесятилетние ИИ исследование показало, что «общие методы, использующие вычисления, в конечном итоге являются наиболее эффективными и с большим отрывом». Саттон назвал это «горьким уроком»: он был горьким, потому что было что-то расстраивающее в том факте, что добавление большего количества ума и технических секретов в ИИ не принесло никакой пользы, программы не только не имели значения для прогресса, но и фактически мешали ему. Лучше иметь более простую программу, умеющую обучаться, работающую на быстром компьютере, и поручить ей решить сложную задачу самостоятельно. Саттон писал, что этот урок нужно было выучить заново, потому что втиснуть все, что вы знали в ИИ часто давали лишь краткосрочные улучшения. С каждой новой крупицей знаний ваша программа будет становиться немного лучше, но в долгосрочной перспективе добавленная сложность затруднит поиск путей для более быстрого прогресса. Методы, которые делали шаг назад и отказывались от экспертных знаний в пользу необработанных вычислений, всегда побеждали. Саттон пришел к выводу, что целью ИИ исследования должна быть направлена на создание «агентов, которые могут делать открытия так же, как мы», а не программ, «которые содержат то, что мы обнаружили». В последние годы ИИ исследователи, похоже, усвоили горький урок раз и навсегда. Результатом стал парад удивительных новых программ.

С тех пор, как мне приходилось расшифровывать лекции, записывать интервью — я мечтал о программе, которая делала бы это за меня. Процесс транскрипции занял так много времени, требуя так много мелких перемоток, что у меня сводило руки и спину. Как журналисту, знание того, что меня ждет, вероятно, исказило мои репортажи: вместо того, чтобы встречаться с кем-то лично с магнитофоном, часто казалось проще просто поговорить по телефону, печатая хорошие моменты в текущий момент. Около пяти лет назад, со смесью стыда и облегчения, я начал платить другим людям за то, чтобы они делали для меня транскрипцию. Я использовал сервис под названием Rev, который отдавал работу на откуп и брал свою долю. Это было дорого — около ста долларов только за одно интервью, — но цена свидетельствовала о затраченном труде. У Rev был гораздо более дешевый ИИ вариант, но, как и другие программы транскрипции, которые я пробовал, она была недостаточно точной, что доставляло неудобства. Создавалось впечатление, что вы тратите больше времени на исправление плохой стенограммы, чем на то, чтобы просто напечатать ее самостоятельно.

Полтора года назад я услышал о сервисе под названием Otter. AI, который был настолько лучше всего того, что было раньше, что наводил на мысль о том, что было создано какое-то принципиальное значительное отличее по сути. Программа ошибалась в пунктуации, все еще приходилось исправлять ее то здесь, то там, но это была первая программа транскрипции, которая избавила от утомительного повторного прослушивания. Я был настолько впечатлен, что она стала незаменимой частью моей работы.Когда-то неразрешимая проблема, казалось, была на почти готовой стадии.

В конце прошлого года, когда Whisper появился из ниоткуда, она навсегда решил мою проблему. Whisper в основном так же искусна, как и я в транскрипции. Программа улавливает тонкий жаргон, обрабатывая слова, звуки которые можно легко спутать с другими словами; например, она правильно слышит инженера-механика, говорящего: «Чтобы создать это в CAD (слова переводится как — хам, если не видеть заглавных букв), потребуется время», даже правильно используя заглавную букву «CAD» — аббревиатура от «автоматизированное проектирование». Она выясняет, как акцентировать внимание на прерываниях человека, например: «Мы почти собираемся отправить. Мы собираемся — следующий будет отправлен». Она бесплатная, работает на моем ноутбуке и концептуально намного проще, чем все, что было до нее.

Почти десять лет назад я написал эссе, в котором задавался вопросом, что произойдет, если транскрипция речи станет по-настоящему повсеместной. Во-первых, кажется вероятным, что мы увидим гораздо больше диктовки. (Уже сейчас, несмотря на то, что говорить по телефону кажется неестественным, я ловлю себя на том, что делаю это все чаще и чаще.) Как только технология достигнет определенного уровня качества, задача судебного репортера может исчезнуть; архивариусы могли бы радоваться тому, что записи речей, встреч, показаний и радиопередач давно стали доступными для поиска. Могут быть и другие большие изменения — мы много говорим, и почти все уходит в эфир. Что, если бы люди записывали разговоры как само собой разумеющееся, делали расшифровки и ссылались на них, как мы сейчас смотрим на старые тексты или электронные письма? Есть что-то привлекательное в накоплении болтовни; разговоры — это мое любимое занятие, и мне нравится идея почтить что-либо и сохранить это. Но затем вы думаете о рекламодателях, которые щедро платят за упоминания их торговых марок в естественной беседе. Вы представляете, как теряете друга или работу из-за глупого комментария. Действительно, перспектива пугающая.

История Уиспера многое говорит об истории ИИ и о том, куда он направляется. Когда часть программного обеспечения имеет открытый исходный код, вы можете адаптировать его для своих целей — это коробка Lego вместо полностью сформированной игрушки — и гибкое программное обеспечение удивительно долговечно. В 1976 году программист Ричард Столлман создал программу редактирования текста под названием Emacs, которая до сих пор пользуется огромной популярностью среди разработчиков программного обеспечения. Я использую ее не только для программирования, но и для написания текстов: поскольку она с открытым исходным кодом, я смог модифицировать ее, чтобы упростить управление заметками к своим статьям. Я адаптировал код, который кто-то адаптировал у кого-то другого, а тот адаптировал его у кого-то еще — цепочка доработок, восходящая к Столлману.

Мы уже наблюдаем нечто подобное с Whisper. Мой друг, кинорежиссер и разработчик программного обеспечения, написал дополнительную функциональную надстройку, которая расшифровывает все аудио- и видеофайлы в документальном проекте, чтобы было легче находить отрывки из интервью. Другие создали программы, которые расшифровывают потоки Twitch и видео на YouTube, или работают в качестве личных голосовых помощников на своих телефонах. Группа программистов пытается научить инструмент аннотировать говорящего. Герганов, разработавший Whisper.cpp, недавно сделал веб-версию, так что пользователям не нужно ничего скачивать.

Почти идеальное распознавание речи стало не просто приложением, а строительным блоком для приложений. Как только это происходит, события развиваются очень быстро. Когда вышла программа OpenAI для преобразования текста в изображение, DALL-E, она произвела фурор, но это было ничто по сравнению с всплеском активности, вызванной ее клоном с открытым исходным кодом, Stable Diffusion. DALL-E использовала модель «фримиум», при которой пользователи могли платить за дополнительные изображения, и никто не мог модифицировать ее код; в целом он оказался более мощным и точным, чем Stable Diffusion, потому что он был обучен на тоннах проприетарных данных. Но он был вынужден конкурировать с огромным количеством и разнообразием адаптаций, плагинов и ремиксов, поступающих от сообщества разработчиков открытого исходного кода. В течение нескольких недель пользователи адаптировали Stable Diffusion для создания режима «изображение-к-изображению», в котором они могли сказать программе настроить существующее изображение с помощью текстового приглашения. Благодаря многократному вызову этого режима стал возможен новый метод иллюстрации, в котором пользователь мог итеративно составлять изображение из слов, как если бы командовал бесконечно терпеливым художником-роботом.

Это открытие, а не какой-то конкретный скачок в возможностях, определяет текущий момент в ИИ. ChatGPT, разговорный чат-бот OpenAI, интересен не потому, что он особенно умен — он часто является фонтаном чуши или банальности, — а потому, что любой интеллект, который у него есть, просто есть, и любой может использовать его в любое время. Доступность программы, пожалуй, самая важная ее особенность, ведь она позволяет простым людям догадаться, для чего она нужна. Поскольку автоматизированное письмо потенциально ценно, OpenAI заинтересован в жестком контроле над ним; компания взимает плату за премиум-версию, и, несомненно, скоро появится экосистема коммерческих приложений, которые делают немного больше, чем может ChatGPT.

В конце концов, однако, кто-то выпустит программу, почти такую же функциональную, как ChatGPT, и полностью с открытым исходным кодом. Предприимчивый любитель найдет способ заставить ее бесплатно работать на вашем ноутбуке. Люди начнут ее скачивать, делать ремиксы, соединять, переосмысливать и переосмысливать. Возможности ИИ столкнутся с нашим коллективным разумом. И мир начнет меняться так, как мы пока не можем предсказать.

VPS серверы по низкой цене

Определение и значение шума — Merriam-Webster

1 из 2

мур · мур ˈmər-mər 

1

: полуподавленная или пробормотанная жалоба : ворчание

ропот неодобрения

2

а

: низкий нечеткий, но часто непрерывный звук

ропот голосов

ропот волн у берега

б

: мягкое или нежное высказывание

шум нянь, воркующих в детских колясках — Нэнси Гиббс

3

: нетипичный звук сердца, обычно указывающий на функциональную или структурную аномалию

Врач обнаружил шум в сердце у своего пациента.

шум

2 из 2

непереходный глагол

1

: пробормотать

ветерок шелестел в соснах

2

: жаловаться, ворчать

переходный глагол

: роптать

3 90ер существительное

Синонимы

Существительное

  • говядина
  • сука
  • блеять
  • карп
  • жалоба
  • суета
  • жалоба
  • нарекание
  • брюзжание
  • рябчик
  • ворчать
  • кричать
  • квеч
  • плач
  • жалкий
  • стонать
  • жалоба
  • крик
  • вопль
  • хныканье
  • скулить
  • винт [ британский ]
  • яммер

глагол

  • говядина
  • боль в животе
  • сука
  • блеять
  • карп
  • Caterwaul
  • пожаловаться
  • краб
  • каркать
  • суета
  • нарекание
  • гризл
  • брюзжание
  • рябчик
  • рычать
  • ворчать
  • сварливый
  • кричать
  • ругать
  • острый
  • удар
  • квеч
  • маундер [ в основном британцы ]
  • стон
  • бормотать
  • кляча
  • репин
  • крик
  • крик
  • визг
  • плач
  • хныканье
  • скулить
  • винт [ британский ]
  • яммер
  • рыскание
  • яуп
  • yowl

Просмотреть все синонимы и антонимы в тезаурусе 

Примеры предложений

Существительное ропот толпы Предложение вызвало ропотов неодобрения. Он говорил в ропот . Они говорили друг с другом

шепотом . ропот волн у берега Глагол Он пробормотал что-то о необходимости вернуться домой. «Спасибо», — пробормотала она , выходя из комнаты. Ветер
шелестел
в соснах. Узнать больше

Последние примеры в Интернете

Говоря диагностическим языком, ропот Мэри был слэм-данком. — Тони Даджер, Discover Magazine , 18 июня 2022 г. Даже самые прозаические недуги, от красной сыпи до сердца бормотание , все еще может преподнести практикующему врачу сюрприз, и действительно нет большего сюрприза, чем инфекция сифилиса.

— Ребекка Крестон, Discover Magazine , 1 апреля 2016 г. Слова поп и бормочут звучат так, как будто они, ну, звучат. — Дэвид Адам, Discover Magazine , 16 мая 2021 г. В какой-то момент 9По толпе прокатился ропот 0213 : Том Хэнкс дал положительный результат на SARS-CoV-2, вирус, вызывающий COVID-19. — Друв Хуллар, The New Yorker , 8 октября 2022 г. Единственные звуки — это ветер, ропот волн далеко внизу — и гул пропеллеров дронов. — Сьюзан Козиер, Scientific American , 12 октября 2022 г. Когда кардиомиопатия действительно вызывает клинические признаки, они могут состоять из аномального дыхания, неустойчивого сердечного ритма или сердца ропот
. — Ли Пикетт, Vmd, Arkansas Online , 7 ноября 2022 г. На этой неделе нарастает ропот о проблемах в одном из крупнейших инвестиционных банков мира, Credit Suisse. — Q.ai — Движение за личное богатство, Forbes , 4 октября 2022 г. Из толпы, увлеченной каждой подачей, слышен низкий ропот . — Рик Уилбер, 9 лет.0213 Los Angeles Times , 3 октября 2022 г.

Другой

бормотал бы в гармонии, отставая на долю такта, проверяя резонанс и ощущение во рту. — Карло Ротелла, 9 лет.0213 New York Times , 16 февраля 2023 г. Толпа начала роптать , размышляя о том, кто появится. — Коннор Рэтлифф, SPIN , 14 февраля 2023 г. На длинной горизонтальной площадке Кристофера и Джастина Свейдеров — открытой траншеи, которая каким-то образом пахнет влажной землей — режиссер Кристьян Тор заставляет актеров прохаживаться вокруг и бормочет о том, что их бросили. — Хелен Шоу, 9 лет.0213 Стервятник , 14 марта 2022 г. Низкие оценки ропота в шестьсот миллионов долларов. — Энтони Лейн,
The New Yorker
, 2 декабря 2022 г. Акции падают, инвесторы нервничают, а голоса продолжают бормотать о том, что рецессия уже близко. — Тристан Бове, Fortune , 22 мая 2022 г. Акции падают, инвесторы нервничают, голоса продолжают ропот что рецессия близка. — Тристан Бове, Fortune , 22 мая 2022 г. Акции падают, инвесторы нервничают, а голоса продолжают бормотать о том, что рецессия уже близко. — Тристан Бове, Fortune , 22 мая 2022 г. Акции падают, инвесторы нервничают, голоса продолжают роптать , что рецессия близка. — Тристан Бове, Fortune , 22 мая 2022 г. Узнать больше

Эти примеры предложений автоматически выбираются из различных онлайн-источников новостей, чтобы отразить текущее использование слова «бормотание». Мнения, выраженные в примерах, не отражают точку зрения Merriam-Webster или ее редакторов. Отправьте нам отзыв.

История слов

Этимология

Существительное и глагол

Среднеанглийский murmure , от англо-французского беспокойства, от латинского murmur бормотание, рев, подражательного происхождения

Первое известное использование

Существительное

век, в значении, определенном в непереходном смысле 1

Путешественник во времени

Первое известное использование ропот был в 14 веке

Посмотреть другие слова из того же века Мурми

ропот

бормотание

Посмотреть другие записи рядом 

Процитировать эту запись

Стиль

MLAЧикагоAPAMМерриам-Вебстер

«Мурмур». Словарь Merriam-Webster.com , Merriam-Webster, https://www.merriam-webster.com/dictionary/murmur. По состоянию на 23 февраля 2023 г. 1 из 2 сущ.

мур · мур ˈmər-mər 

1

: бормотание жалобы : ворчание

2

: низкий, слабый и непрерывный звук

шум пчел

3

: нерегулярный сердечный тон, обычно указывающий на нарушение функции или структуры сердца

шум

2 из 2 глагол

1

: роптать

ветерок пробормотал в соснах

2

: сказать слишком низким голосом, чтобы его можно было разобрать

бормотать существительное

Медицинское определение

шум

существительное

мур · мур ˈmər-mər 

: атипичный тон сердца, обычно указывающий на функциональную или структурную аномалию

звонили также шум в сердце

Еще от Merriam-Webster о

мурмур

Нглиш: Перевод мурмур для говорящих на испанском языке

Britannica English: Перевод мурмур для говорящих на арабском языке статья

9000. 0213 ропот

Последнее обновление: — Обновлены примеры предложений

Подпишитесь на крупнейший словарь Америки и получите тысячи дополнительных определений и расширенный поиск без рекламы!

Merriam-Webster без сокращений

Почему крошечные слова вроде «ага» могут сбить вас с толку

Загрузка

Как мы живем

(Изображение предоставлено Getty Images)

Женевьев Уокер, 17 декабря 2021 г.

Вроде бы безобидные произнесенные слова — конечно, хорошо, хорошо, ага, без проблем, попался — текст кажется оружием. Почему мы такие чувствительные?

T

Спасибо, отличная работа

Увидев эту простую фразу в электронном письме, я должен быть счастлив, но без теплоты восклицательного знака я чувствую приступ паники, даже грусти. Я понимаю, что на разных работах и ​​в разных социальных культурах действуют разные нормы общения, но часть моего мозга работает в два раза быстрее, чтобы разобрать подтекст этих 9 слов.0213 отличная работа минус знаки препинания. Я сделал что-то не так, чтобы заслужить холодный ответ? Было ли вообще холодно?

Конечно, я не одинок в том, чтобы подвергать микроскопическому анализу слова или фразы и их пунктуацию в электронной почте и чате. То, как мы используем письменный язык, постоянно меняется. Не каждая фраза загружается, но мы часто вздрагиваем, когда определенные короткие слова и фразы появляются в нашем почтовом ящике или окнах чата без знаков препинания: «конечно», «хорошо», «хорошо», «ага», «нет проблем», поймал». или даже «да», «нет», «спасибо» и «извините».

Что такого особенного в этих коротких, общих словах и фразах, которые при написании поддаются столь разнообразному толкованию? Почему, когда они покидают сферу устной речи и появляются в неформальных письменных сообщениях, они кажутся имеющими такой большой вес? И может ли когда-нибудь отправленное по электронной почте «ОК» быть просто ОК ?

Трудности перевода

Существует большая разница между случайным произнесением «хорошо» или «конечно» в личной беседе и отправкой того же слова в тексте.

Это потому, что когда мы разговариваем с другими людьми лично, мы используем и интерпретируем бесчисленное количество тонких сигналов. «В разговоре с глазу на глаз или синхронном разговоре, когда у нас есть свои голоса и наши лица, что-то вроде «уверена» будет сочетаться с выражением лица или тоном голоса, чтобы дать дополнительные контекстные подсказки», — говорит Мишель МакСвини. , американский лингвист и автор книги «Прагматика обмена текстовыми сообщениями » . «Мы предполагаем, что наши собеседники знают, что мы пытаемся сказать».

Без важных контекстных сигналов из разговора наш мозг пытается заполнить пробелы, когда мы получаем двусмысленные сообщения. (Фото: Getty Images) много значимого контекста, когда мы переходим к письму. «Невербальные голосовые высказывания — вздохи, крики, смех и т. д. — чрезвычайно богаты», — говорит Алан Коуэн, главный научный сотрудник и генеральный директор Hume AI, исследовательской лаборатории человеческих эмоций. «Наша наука раскрывает в этих звуках гораздо больше смысла, чем предполагалось ранее. Теперь мы знаем, что они передают по крайней мере 28 видов эмоционального значения, и их число продолжает расти. Эти же звуки мы вносим в речь».

Когда мы общаемся в цифровом формате, мы также теряем признаки общего физического окружения. Даже во время видеозвонка «у нас нет полного доступа к межличностным сигналам, таким как одежда человека, поза, положение сидя или невербальные сигналы, жесты и т. д., которые обычно помогают нам сделать разговор связным, плавным и плавным. помогите нам расшифровать межличностные значения», — говорит Эрика Дарикс, прикладной лингвист из Гронингенского университета в Нидерландах и ведущая подкаста Words and Action.

Еще одна важная часть разговора — это «обратный канал» — сигналы, которые мы используем, чтобы показать, что мы слушаем и внимательно слушаем. Эти сигналы включают в себя фразы «ага, хм, верно, да, окей» — некоторые из слов, которые больше всего раздражают нас в тексте, — а также использование жестов, таких как кивок или поднятая бровь.

Сигналы обратного канала, говорит Дарикс, «обычно находятся ниже уровня сознания». Другими словами, мы не осознаем, что используем их. Таким образом, одни и те же слова, которые мы можем чрезмерно анализировать в тексте, часто являются вещами, которые мы едва замечаем, когда говорим, но они находятся впереди и в центре, как и любое другое слово.

«Что может вызвать проблемы в этих цифровых каналах, так это синхронизация», — добавляет Дарикс. «Если вы решите отправить «да», вы можете в конечном итоге прервать поток текстов говорящего». «Право», демонстрирующее понимание в разговоре лицом к лицу, не работает в текстовом сообщении или создает ненужную двусмысленность.

«Наш мозг естественным образом заполняет эти пробелы»

В оцифрованных разговорах не только отсутствуют визуальные, слуховые и ситуационные сигналы, характерные для личного чата, но и некоторые короткие слова действительно поддаются более разнообразной интерпретации в силу того, что они короткий.

Когда мы говорим, мы концентрируемся на произношении фонетических звуков каждого слова. Чем короче или проще слово, тем меньше работы мы делаем, чтобы его произнести, и тем больше мы можем сосредоточиться на том, чтобы наполнить его целым рядом эмоций, говорит Коуэн. «На самом деле мы можем формировать гораздо более точные вокальные выражения, когда не слишком заняты речью», — добавляет он. «Это делает более простые слова лучшими носителями для богатых эмоциональных выражений».

Итак, когда мы читаем эти фонетически простые слова, нас ожидает богатая эмоциональная интонация. «Мы по-прежнему представляем, что они имеют широкий спектр эмоциональных значений, — говорит Коуэн, — и наш мозг естественным образом заполняет эти пробелы» — часто ошибочно.

Многие из этих слов изначально задуманы как двусмысленные. Они находятся «по шкале от согласия до несогласия», — говорит МакСвини. «Да» и «нет» — полярные концы этой шкалы, и все, что между ними, находится между ними и должно быть между ними. Создание этой двусмысленности на самом деле является целью». Естественно, эта двусмысленность приводит к неправильному толкованию, особенно когда мы общаемся в цифровом формате с людьми, которых плохо знаем.

В наших собственных курируемых кругах общения (друзья и семья; люди, у которых мы научились говорить) мы, как правило, лучше понимаем «упорядочение» шкалы согласия-несогласия, что короткие слова, такие как «уверен» и «ОК» садитесь. Но, по словам МакСвини, «на рабочем месте это становится очень неприятным, потому что не обязательно все мы выходцы из одной культуры».

«Интернет-люди»  

Один из способов, которым мы пытаемся справиться с проблемами цифрового общения, — это использование дополнительных маркеров для уточнения наших коротких чатов.

«Знаки препинания (вместе со смайликами) — это набор ресурсов, [которые мы используем], чтобы попытаться вписать тонкий межличностный смысл», — говорит Дарикс. Использование знаков препинания и эмодзи для наполнения чатов эмоциями стало настолько нормальным, что мы привыкли ожидать этого, а это означает, что мы придаем большее значение каждому маленькому восклицанию. А когда его нет, наш мозг спешит объяснить, почему.

Однако то, как мы заполняем пробелы, часто зависит от нашего возраста и от того, как мы впервые использовали Интернет. Каждый вырос с различным отношением к Интернету; кто-то видел начало, а кто-то не прожил без него ни минуты своей жизни.

Различные поколения «людей Интернета» по-разному используют и интерпретируют язык в тексте (Фото: Getty Images) Решающее различие между этими типами интернет-людей заключается в том, как они сначала использовали Интернет, а затем изучили его социальный этикет — в частности, учились ли они у сверстников и общались в сети, а не использовали ли они сначала Интернет чисто функционально, скажем, для проверки электронной почты или просмотра. до информации. Если вы узнали об Интернете в процессе общения, вы, скорее всего, свяжете его сленг с тоном голоса.

МакКаллох утверждает, что это ключ к тому, как определенные сообщения — определенные слова и типы знаков препинания — будут по-разному интерпретироваться разными людьми. У каждой группы интернет-людей свои нормы: все мы мысленно консультируемся с разными авторскими редакторами, расставляя знаки препинания и читая неформальный текст.

«Проблемы начинаются, когда вы комбинируете несколько наборов норм, — пишет МакКаллох в «Потому что Интернет». Она приводит пример сообщения, подобного приведенному ниже, от старшего родственника подростку или босса бумера сотруднику-миллениалу:

привет.
Как дела…

Это сообщение, пишет она, «читается совершенно по-разному в зависимости от того, что вы считаете нейтральным». Некоторые не увидят ничего плохого, в то время как другие, особенно те, кто с детства читал тон голоса в коротких цифровых сообщениях, видят в этом зловещее упущение.

«Точка-точка-точка особенно опасна», — пишет МакКаллох. Для людей, которые привыкли писать в автономном режиме, продолжает она, знак препинания является общим — он просто используется для разделения слов. «Но для писателей, ориентированных на Интернет, общим разделителем является перевод строки 9. 0213 [так в оригинале] или новое сообщение, которое оставило точку-точку-точку открытой для принятия дальнейшего значения того, что осталось недосказанным».

Более того, мы не особо замечаем разницу в тональной беглости, когда дело доходит до письма в Интернете; мы предполагаем, что, поскольку все мы в той или иной форме пользуемся Интернетом, у всех нас должно быть одно и то же руководство по тональному стилю.

Научитесь читать цифровую комнату

Понимание того, почему определенные сообщения вызывают у нас раздражение, может помочь нам общаться более гладко и наносить меньше ударов по нашему эго. В конечном счете, все дело в различиях в стилях общения и изучении того, что представляет собой вежливость в той или иной (цифровой) комнате.

Это, безусловно, может иметь место на рабочем месте. «В моей [офисной] культуре, — говорит МакСвини, — мы веселые, а я не очень веселый. Но теперь я так хорошо умею отправлять танцующие радуги смайлики, потому что это способ сказать моим коллегам: «Эй, я тебя вижу», и это культура».

admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *