Разобрать слово новую по составу: Страница не найдена 404

Содержание

Существуют ли продукты-афродизиаки на самом деле?

врач антивозрастной медицины, диетолог, нутрициолог клиники ЕМS

  Большинство продуктов, которые относят к афродизиакам, имеют высокую насыщенность жизненно важными нутриентами: белком, цинком, селеном, полезными жирными кислотами, витаминами С, Д, Е, А и другими веществами. Процесс пищеварения сопровождается активацией нейромедиаторных связей, выбросом гормонов, насыщением организма питательными и биологически активными веществами, что в итоге трансформируется в чувство удовлетворения и ощущения притока энергии в теле — вот и все действие «афродизиаков». Если разобрать по молекулам состав любого продукта, входящего в список афродизиаков, можно проследить, по каким причинам ему приписываются возбуждающие свойства — и есть ли для этого основания.

В морепродуктах много белка и цинка, которые активно участвуют в процессах ресинтеза всех клеток организма. Особенно эффективными афродизиаками считаются сырые устрицы. Однако надо учесть, что моллюски, ракообразные, членистоногие могут спровоцировать аллергическую реакцию, а сырые продукты — вызвать пищевое отравление.

Артишоки, сельдерей и петрушка стимулируют кровоток. Орехи, финики, бананы и шоколад содержат много аминокислоты триптофана, благодаря которой вырабатывается серотонин — гормон счастья и спокойствия. Однако его эффект ближе к фазе удовлетворения, чем возбуждения. Эти продукты также в последние годы лидируют в списке пищевых аллергенов.

Проростки пшеницы и кунжутное семя богаты витамином Е, который считают самым «возбуждающим» из всех витаминов. Токоферол (другое название витамина Е) в переводе с греческого tocos phero означает «несущий потомство». Он, как и другие жиры, активно участвует в выработке половых гормонов, является мощным антиоксидантом. Витамин Е содержится в большом количестве и в других растительных маслах: подсолнечном, оливковом, соевом, кукурузном.

Употребление куриных яиц и красной икры отлично восполняет потребности в жирных кислотах, легкоусвояемом белке и витаминах, но это уровень базового обмена веществ, а его удовлетворение и есть биохимическое удовольствие тела, но без включения процессов возбуждения и расслабления.

Морские водоросли богаты цинком, селеном и йодом — они являются основным субстратом для выработки гормонов щитовидной железы, которая ускоряет обмен веществ. Однако резкое избыточное употребление йода может активировать аутоиммунные заболевания щитовидной железы.

Кофе оказывает выраженное возбуждающее действие на нервную систему, вызывает кратковременный спазм сосудов, повышение артериального давления и стимулирует выброс глюкозы из гликогеновых депо. У человека скорость метаболизма кофеина генетически предопределена, поэтому употребление более двух-трех чашек кофе в день может негативно повлиять на самочувствие.

Конструкции ферритовых запоминающих устройств (часть третья) / Хабр

Заключительная часть обзора конструкций ферритовой памяти, в которой поговорим о долговременной или постоянной памяти, где скорость записи информации значительно медленнее, чем скорость чтения. Какие-то устройства позволяют записывать данные электрически, без изменения физической структуры, в других же для этого требуется прямое изменение конструкции.


Введение

В долговременной памяти хранят разнообразные микропрограммы, константы, таблицы символов и кодов. В документации и на шильдиках встречаются две аббревиатуры ДЗУ (Долговременное Запоминающее Устройство) и ПЗУ (Постоянное Запоминающее Устройство), причём сферы применимости пересекаются. Так, какие-то устройства одинаковой конструкции названы ДЗУ, а какие-то ПЗУ. Я буду стараться использовать термин ДЗУ для обозначения устройств, запись новых данных в которые без физического разбора устройства невозможна и ПЗУ для тех, что это позволяют, если на самом устройстве или в его документации не написано обратное (скажу сразу — исключений много).

Теория


Трансформаторные ДЗУ

Представляют собой печатные платы с десятками и даже сотнями небольших П-образных сердечников, рядами установленных в специальных гнёздах. Могут использоваться О, I, Ш и иные формы. Сердечники называют запоминающими трансформаторами. Мимо сердечников протянуты тонкие адресные провода (шины). Каждый провод может проходить либо внутри магнитопровода (полный виток), либо снаружи (половина витка), тем самым кодируя логическую единицу или логический ноль. Кроме этого, каждый сердечник обмотан другим отдельным проводом для считывания данных (обмотки считывания). Ток, проходя по адресному проводу, вызывает возникновение сигналов в обмотке считывания положительной или отрицательной полярности, в зависимости от того, как именно проходит адресный провод. Мимо каждого сердечника могут проходить сотни разных адресных проводков (обычно их число кратно степени двойки) и их количество равно числу хранимых в устройстве чисел. Число сердечников на одном адресном проводе указывает на разрядность хранимого числа. Для получения объёма хранимой памяти необходимо умножить число адресных проводков на число сердечников. Кроме этого, несколько адресных проводков обычно оставляют резервными и используют для контроля работы устройства (например, все разряды единицы). Сердечники могут разбиваться на группы, в каждой группе проложены свои адресные провода. Очевидно, что такие устройства могут быть перепрограммированы лишь физическим перекладыванием (перепрошивкой) адресных проводков в заводских или лабораторных условиях. Для выбора нужного адресного провода используют дешифраторы, обычно размещаемые на той же печатной плате.

Биаксы

Биакс — ферритовый сердечник с двумя взаимоперпендикулярными отверстиями, разделёнными перемычкой. Был разработан в 1958 году американской фирмой «Форд». В одно из отверстий пропускают провод записи, также выполняющий функции провода считывания. В другое отверстие проходит провод опроса. Для записи на оба провода подают токи, формирующие два магнитных потока, которые складываются в перемычке в результирующий магнитный поток. Его направление определяется направлениями исходных потоков (которые зависят от полярности поданного тока) и позволяет различать логический ноль и единицу. Для считывания данных в провод опроса подают ток такого же направления, что было сформировано проводом записи. Это приведёт к повороту магнитного потока в перемычке и возникновению ЭДС в проводе считывания. Её знак будет различен при считывании нуля или единицы. После прекращения подачи напряжения магнитный поток вернётся к исходному состоянию. Таким образом, для биакса не нужна регенерация данных. Считывание информации из запоминающих устройств на основе биаксов может происходить только по типу 2D, а вот запись по любому из трёх известных типов. Для биаксов характерна быстрая скорость считывания, но медленная запись. Из-за этого биаксы обычно применяли для построения постоянных запоминающих устройств, предусматривающих в рабочем режиме лишь чтение информации (различные сменные кассеты или блоки памяти). Запись в них была возможна на внешнем оборудовании в полевых условиях, что выгодно отличало от трансформаторных долговременных запоминающих устройств, доступных для перепрошивки лишь на специальных стендах квалифицированных персоналом в заводских или лабораторных условиях.

Модуляция магнитного сопротивления

Этот вид сердечников был изобретён в 1959 году советским учёным А. Е. Ашманом. Запоминающий ферритовый элемент с модуляцией магнитного сопротивления имеет три отверстия — основное и два симметричных модуляционных и изготавливается из магнитомягкого материала с непрямоугольной петлёй гистерезиса. Через основное отверстие проходят обмотки чтения и записи, а через другие модуляционная обмотка. Запись информации осуществляется намагничиванием сердечника током до состояния остаточной индукции, как положительной, так и отрицательной, что соответствует логическому нулю или единице. Счи­тывание осуществляется током опроса, который подаётся модуляционную в об­мотку. Небольшая перемычка, в которой локализуется поле, назы­вается модулируемым магнитопроводом. Остальная часть сер­дечника, практически не подвержена воздействию поля опрос­ного тока, служит запоминающим магнитопроводом. Неразрушаемое считывание происходит путём насыщения током опроса перемычек вокруг модуляционных отверстий. В результате этого, магнитное сопро­тивление модулируемого магнитопровода возрастает и в рабочем магнитопроводе возбуждается размагничивающее поле умень­шающее рабочий магнитный поток. В результате в проводе считывания индуктируется двухполярный сигнал, фаза которого опреде­ляется направлением рабочего потока, которое указывает на то, был ли в сердечнике логический 0 или 1.

Запоминающие устройства на П-образных сердечниках

В отличие от оперативной памяти, где тороидальная форма сердечников стала основной, долговременная память предлагает значительное многообразие форм ферритовых элементов, насчитывая более десятка. При одинаковой форме сердечников конструкции различаются способами монтажа трансформаторов. Так, П-образные сердечники могут быть подпружинены сверху, прикрыты крышками или оставлены открыто, удерживаясь за счёт трения. Рассмотрим некоторые характерные образцы, первично сортируя по форме сердечника, а вторично по способу монтажа.


▍С подпружиненными фиксаторами

Рассмотрим три примера одной схемы монтажа сердечников.

❒ ПЗУ микропрограмм БЦВМ А-40

ПЗУ (именно так, а не ДЗУ оно фигурирует в документации) выполнено в виде «книжки» из двух печатных плат. На верхней из них смонтирована запоминающая часть, а на нижней электронные компоненты и разъём подключения. Сверху расположена лёгкая защитная металлическая крышка.

Запоминающая часть состоит из 36 элементов, каждый из которых содержит четыре П-образных ферритовых сердечника (всего 144 штуки на ПЗУ), а сверху них специальный фиксатор с двумя пружинными элементами. Круглое колёсико позволяет регулировать силу прижима. По бокам от запоминающей части расположены две группы диодных сборок, по 128 сборки в каждой, что даёт 2048 выводов. От каждого вывода тянется отдельный адресный провод, проходящий последовательно все трансформаторы и кодируя двойное слово. Объём памяти ПЗУ составляет 4096 72-х разрядных слов или 36 килобайт.

ПЗУ микропрограмм БЦВМ А-40. Вид изнутри

❒ ПЗУ 4СЕТ1ЯП2

Из состава неизвестной БЦВМ космического назначения. Состоит из трёх субмодулей «книжной» конструкции размещённых в герметичном дюралюминиевом корпусе. Два одинаковых субмодуля содержат ферритовые П-образные сердечники и диодные бескорпусные микросборки. На третьем размещены разъёмы внешнего подключения и электронные платы со старинными SMD-компонентами. Платы с микросборками расположены сбоку от сердечников, каждая в индивидуальном корпусе.

Запоминающие субмодули называются ЯС-ПЗУ. Каждый из них содержит 64 группы П-образных ферритовых сердечников, по четыре в каждой группе, всего по 256 штук на субмодуль. Таким образом, всё запоминающая часть ДЗУ состоит из 512-ти сердечников. Внутри каждого субмодуля 256 сердечников разделены на две логические группы по 128 шт. с индивидуальной прошивкой. Через сердечники проходят кодовые провода. Каждая логическая группа прошита 256-ю кодовыми проводами, что даёт 8 хранимых килобайт данных на каждый субмодуль и 16 килобайт на всё ПЗУ.

ПЗУ 4СЕТ1ЯП2. Вид без корпуса

❒ ДЗУ «Аргон-15»

Несмотря на то что конструкция запоминающей части идентична представленным ранее образцам, устройство проходит по документации как ДЗУ, а не ПЗУ. БЦВМ «Аргон-15» используется на самолётах и наземных мобильных военных системах. Она содержит два вида долговременной памяти — ПЗУ и ДЗУ. ПЗУ (о нём будет рассказано ниже) расположено внутри корпуса БЦВМ, а ДЗУ представляет собой небольшой отдельный блок, не входящий в «базовый» комплект. В нём хранятся сервисные программы, определяющие назначение комплекса, то есть программы для «встройки» БЦВМ в общую систему управления единицей техники. Для разной техники своя прошивка. Данный экземпляр ДЗУ использовался в составе комплекса ПВО «Бук». Корпус блока герметичен, возможно, был заполнен инертным газом, так как на одной из стенок установлен газовый клапан.

Внутри корпуса размещена «книжка» из двух печатных плат на одной из которых расположена запоминающая часть. Стороны платы с запоминающими элементами подписаны лудированием как ДЗУ А и ДЗУ Б. Запоминающая часть состоит из 40 элементов, каждый из которых состоит из четырёх П-образных ферритовых сердечников, подпружиненных сверху специальным регулируемым зажимом (всего 160 сердечников). По бокам расположены две группы диодных сборок, по 64 сборки в каждой. От них отходит 1024 кодовых провода. Таким образом, объём памяти ДЗУ составляет 20 килобайт.

ДЗУ БЦВМ «Аргон-15». Вид без корпуса

▍Свободно установленные

Самая распространённая схема монтажа сердечников за счёт трения. Верхней крышка может присутствовать, но это лишь часть корпуса, а не специальная деталь.

❒ Кассета ДЗУ-8

Официально кассета называется

МЭСБ

ДЗУ-8. Кассеты ДЗУ-8 использовались в военном вычислительном оборудовании ВМФ, включая различные СЦВМ и в расчётное устройство РИ-1. В памяти ДЗУ размещалось внутреннее математическое обеспечение — тестовые, диагностические программы и операционная система реального времени. ДЗУ-8 выполнено в виде съёмной кассеты, вставляемой вертикально в аппаратную стойку. С тыльной стороны расположены направляющие штыри, а с лицевой, разъём, посредством которого кассета подключается к ЭВМ. Корпус кассеты раскрывается на две половинки, соединённые лишь внутренними жгутами проводов. Внешние защитные крышки также снимаются.

Каждая половинка корпуса содержит две стороны. Одну из них занимают ферритовые сердечники и ряды клемм монтажа адресных шин, а другую электронные платы, в частности, диодные сборки и усилители сигнала. Доступ к сердечникам осуществляется со стороны защитных крышек. Всю запоминающую часть можно разделить на четыре участка, по два на каждой из половинок. Каждая из половинок состоит из 144 сердечников (8 рядов по 18 штук), но логически разделена ещё пополам, что даёт восемь групп по 72 сердечника. Общее число сердечников кассеты могло бы быть 576, однако одна группа (72 сердечника) оставлена не прошитой. Кодовые провода также разделены на четыре участка в каждом 1024 провода. Таким образом, объём памяти составляет 9 килобайт на группу, а вся кассета 63 килобайта. Если бы были прошиты все сердечники, то объём памяти составил бы 72 килобайта.

Кассета ДЗУ-8. Детальное рассмотрение
Кассета ДЗУ-8. Укладка микросхем

Платы размещены в два слоя. Из-за необходимости размещения на ограниченной площади большого количества микросхем применён красивый монтаж «бутербродами».


Для производства этих кассет в Ереване был специально просторен завод «Базальт», но из-за низкого качества продукции производство вскоре было перенесено на Ульяновский завод «Комета». Кроме того, в относительно современных публикациях ЗАО «БИУС» можно найти цветные фотографии этих кассет. Например,

тут

, на дальнем конце стола.

❒ Кассета ДЗУ

Где применялась точно неизвестно. Длинный (37 сантиметров) металлический корпус, с двух боковых сторон закрывается съёмными крышками, снизу штырьковые контакты для подключения и отверстие для фиксирующего болта. Одну сторону кассеты занимает запоминающая часть и блок с клеммами подключения кодовых проводов. На другой стороне расположена печатная плата с диодами — дешифраторами. Разработка НПО «Агат» и Казанского Завода Медицинской Аппаратуры.

Запоминающая часть содержит 112 П-образных ферритовых сердечников. Через них проходит 78 кодовых проводов. Таким способом, можно запомнить 1092 бит данных. В дешифраторе используется 256 диодов, размещённых двухслойными группами по 32 штуки, однако из них задействовано лишь 39 штук.

Кассета ДЗУ. Крупный план

❒ Модуль ДЗУ

Это ДЗУ, возможно, с научной или измерительной установки. Лицевая сторона закрывается пластиковой защитной крышкой (встречаются и из прозрачного пластика). На крышке присутствует рукописная надпись: «Автозапуск прошит Т=1 час 2.11.90» и роспись. Тыльная сторона прикрыта прозрачным листом для защиты обмоток считывания. Разработка Специализированного НИИ Приборостроения.

Запоминающая часть состоит из 24 П-образных ферритовых сердечников, прошитых 256-ю кодовыми проводами — адресными шинами. Это позволяет запомнить 768 бит данных.

Модуль ДЗУ. Крупный план

▍С крышкой над сердечниками

В этом варианте сердечники закреплены за счёт трения и дополнительно крышками, не являющимися частями внешнего корпуса.

❒ ДЗУ оборудования командного пункта 5Н63С

Используется в стойках оборудования командного пункта 5Н63С. Запоминающее устройство состоит из трёх двусторонних печатных плат открывающихся «книжкой». Сквозь все платы проходит крепёжный болт-замок, предотвращающий случайное раскрытие. На одной из них расположена запоминающая часть, на других вспомогательные электронные компоненты. На торцах двух плат находятся три электрических разъёма подключения к аппаратной стойке. Книжка заключена в съёмный металлический корпус-кассету, стойка содержала несколько таких кассет. Существует несколько вариаций этого ДЗУ, например, ФВ000-2М, ФВ000-4М, ФВ000-6М конструктивно отличающиеся незначительно.

Запоминающая часть содержит четыре группы ферритовых сердечников по 36 штук (всего 144). Группы закрыты защитными крышками с пломбировкой. Каждая группа соединяется с соседней платой через 37-ми контактный разъём, где каждый контакт соответствует одному адресному проводу. Таким образом, максимальный объём памяти устройства составляет 2644 байт.

ДЗУ оборудования командного пункта 5Н63С. Вид изнутри



❒ ПЗУ ЭВМ СМ-1

ПЗУ процессора СМ-1П от ЭВМ СМ-1. Представляет собой весьма крупную (размеры 367 x 367 мм) печатную плату на которой смонтировано четыре группы П-образных ферритовых сердечников, четыре группы диодных сборок и вспомогательные радиодетали.

В каждой группе 72 сердечника, прошитых 256 адресными проводами, что даёт 18432 бита хранимой информации или 1024 машинных 18-битных слова. Таким образом, полный объём ПЗУ составляет 4096 18-битных слов или 9 килобайт. Диодные сборки, в количестве 32 шт. на группу, установлены по окружностям в специальных пластиковых гнёздах. Сердечники сверху закрыты защитными пластиковыми крышками с дополнительным подпружиненным элементом.

ПЗУ ЭВМ СМ-1. Крупный план

▍Запоминающие устройства на Ш-образных сердечниках

В Ш-образные сердечники позволяют получить два магнитопровода на один элемент, причём одновременно может работать лишь один из них. Обмотка считывания располагается на центральном выступе буквы Ш, адресные шины проходят справа или слева. Для выбора нужного магнитопровода используют дополнительные схемы.

❒ ДЗУ-14М1 БЦВМ «Аргон-10»

ДЗУ от БЦВМ «Аргон-10». Представляет собой металлическую раму с печатными платами, размещёнными с каждой стороны. Рама вставляется в аппаратную стойку, на лицевой стороне расположен разъём подключения и гнёзда для крепёжных болтов. Имеется шильдик с названием и шильдик с номером ДЗУ. В БЦВМ устанавливалось несколько таких блоков ДЗУ.

Запоминающая часть состоит из 160-ти Ш-образных ферритовых сердечников, распределённых на 80 групп по две штуки. С учётом формы это даёт 320 магнитопроводов. Через сердечники проходит 512 кодовых проводов — адресных шин. Объём памяти ДЗУ составляет 20 килобайт.

ДЗУ-14М1 БЦВМ «Аргон-10». Крупный план



❒ ДЗУ оборудования РЛО 64Н6

ДЗУ из состава оборудования РЛO 64Н6. Представляет собой металлический «чемоданчик» с ручкой и четырьмя разъёмами, которыми он подключался к аппаратной стойке. Боковые стороны «чемоданчика» — печатные платы с диодными сборками с внешних сторон. На внутренних сторонах расположены запоминающие ферритовые сердечники. Разработчик Новосибирский завод имени Коминтерна.

ДЗУ содержит 137 Ш-образных сердечника, 68 на одной плате и 69 на другой, при общем числе магнитопроводов в 274 штуки. Через сердечники проходит 784 адресных шин, что потенциально позволяет запомнить 26852 байт данных.

ДЗУ оборудования РЛС 64Н6. Вид изнутри



▍П-образные сдвоенные сердечники

Варинат, когда два П-образных сердечника соединены внахлёст, образуя «квадратную» О-форму.

❒ ДЗУ УП-8

УП означает Узел Памяти. Это один из модулей долговременной ферритовой памяти из (вероятно) состава первого высокоточного инерциального навигационного комплекса второго поколения «Тобол» или НКСО-72. НКСО-72 устанавливался на ракетные подводные крейсера стратегического назначения. На верхней нарисована подробная схема размещения элементов на плате узла памяти.

Содержит 208 пар П-образных ферритовых сердечников, соединённых внахлёст. Через сердечники проходит 512 кодовых проводов. Таким способом можно закодировать 13312 байт данных или 512 26-разрядных слов.

ДЗУ УП-8. Крупный план

▍Ячейки блока сердечников

Восемь трансформаторов выполнены в едином корпусе — ячейке блока сердечников. Она состоит из двух деталей — обоймы и ярма. Ярмо — это верхняя съёмная часть магнитопровода блока сердечников. Оно плотно прилегает к обойме посредством двух пружин и держащих их болтов. Обойма же нижняя часть. Она состоит из корпуса, внутри которого расположены запоминающие трансформаторы (в форме штырей, два ряда по четыре, всего восемь), вокруг которых проложен кодовый провод.

❒ ДЗУ калькулятора Искра 1250

Долговременная память программируемого электронного инженерного калькулятора Искра 1250, содержащий два таких ДЗУ. ДЗУ состоит из двух печатных плат, соединённых между собой железной петлёй. На одной из плат расположены ферритовые сердечники и вспомогательные детали, а на другой — дешифратор в виде диодной матрицы.

На плате расположено 16 ячеек блока сердечников, что даёт 128 I-образных сердечников. Диодный дешифратор расположен на соседней печатной плате и состоит из 256 диодов. От каждого отходит тонкий кодовый провод, соединяется в жгут и следует к запоминающим элементам. Один кодовый провод последовательно обходит все сердечники, что позволяет хранить 4 Кб данных.

ДЗУ калькулятора Искра 1250. Крупный план



❒ Кассета ПЗУ ЦВМ «Пламя-КВ»

Кассета ПЗУ — элемент ферритового ПЗУ Цифровой Вычислительной Машины «Пламя-КВ» от комплекса ПВО С-200. В состав ЦВМ входило два идентичных ПЗУ по восемь кассет каждое, в которых хранилась программа решения задачи и все исходные данные. Каждое ПЗУ могло хранить 4096 16-ти разрядных чисел (иными словами, 8 килобайт), при этом каждая кассета могла хранить 512 чисел (1 килобайт). Время обращения (период времени между двумя посылками адресов в ПЗУ) составляло 16 микросекунд, а время выборки (время, прошедшее с момента начала дешифрации адреса до момента считывания числа из ПЗУ) 4 микросекунды. Печатная плата с деталями кассеты ПЗУ закреплена в металлической раме, на которой расположены четыре вилки от разъёма подключения в стойку. Вилки, для надёжности подключения продублированы.

На плате расположены 128 запоминающих ячеек, состоящих из запоминающего трансформатора и выходного диода. Все запоминающие трансформаторы образуют числовую матрицу из 8 горизонтальных и 16 вертикальных рядов, причём каждые 8 трансформаторов выполнены в едином корпусе — ячейке блока сердечников. Каждый ряд числовой матрицы представляет собой одну числовую линейку, а каждая ячейка разряд числовой линейки. Один кодовый провод последовательно обходит восемь числовых линеек, обеспечивая запись восьми 16-ти разрядных чисел. Поскольку, каждый запоминающий трансформатор прошивается 64-мя кодовыми проводами, это позволяет хранить 512 16-ти разрядных чисел. Есть и 65-ый провод для настройки и проверки кассет. Им все ячейки прошиты как логические единицы.

Кроме запоминающих ячеек, на плате находятся транзисторы ключей управления выбором группы, выбора провода и выбора числа, резисторы стабилизации тока, конденсаторы для увеличения амплитуды и длительности выходного импульса. На тыльной стороне печатной платы лудированием нанесена надпись «Кассета ПЗУ», децимальный индекс, значения рабочих напряжений и номера выводов.

Кассета ПЗУ ЦВМ «Пламя-КВ». Крупный план



▍Кольца


❒ БПП БИУС МВУ-110 «Узел»

Блок Постоянной Памяти БИУС МВУ-110 «Узел». Боевая Информационно-Управляющая Система «Узел» устанавливалась на дизель-электрические подводные лодки проектов 641Б и 877. ОЗУ было выполнено на интегральных кубах памяти КП128/17-М70, а ПЗУ на пластинах с вмонтированными ферритовыми кольцами. В составе каждой БИУС было таких 20 блоков. Блок представляет собой металлическую небольшую раму, вставляемую в аппаратную стойку. На тыльной стороне находятся две направляющие, два разъёма подключения и отверстие для фиксирующего болта. Во внутреннем пространстве рамы смонтированы ферритовые пластины различного назначения и небольшая печатная платка с транзисторами.

Блок постоянной памяти содержит 20 пластин с множеством отверстий, их которых 16 приходится на память, а четыре на магнитные дешифраторы. Пластины двух видов отличаются друг от друга. В каждой «запоминающей» пластине 32 отверстия с ферритовыми кольцами, по 16 с каждой стороны. Всего 512 колец на блок. Остальные множественные отверстия нужны для образования витков из кодовых проводов. Запоминающие пластины расположены под углом друг к другу так, что остаётся свободный доступ к отверстиям. Номера пластин подписаны на раме. Дешифраторы размещены более компактно, зажатые между элементов рамы. Объём памяти блока 2048 24-битных слов (6 килобайт).

БПП БИУС МВУ-110 «Узел». Крупный план

В интернете я нашёл воспоминания Владимира Савинова, который работал на заводе производившем «Узел». В приведённом ниже отрывке он описывает процесс прошивки блоков.

«Одной из проблем в производстве и настройке «Узла» всегда была проблема качества выполнения прошивки блоков БПП (20 штук в «Узле» плюс 31 в ЗИП). Магнитные модули (16 штук в одном блоке) плюс магнитные дешифраторы (2 шт. на блок) прошивались вручную, при этом применялись тонкие швейные иглы, поскольку надо было многократно прошивать сердечники малого диаметра. Концы проводов припаивались к выводам, имеющим малый шаг между собой. Вероятные ошибки, это: ошибки в прошивке, нет контакта с выводом, замыкание между выводами, обрыв провода и тому подобные. Основная часть ошибок исправлялась на этапе поверки модулей и дешифраторов на стендах, при настройке магнитных плат, блоков на стенде настройки БПП и, в конце концов, во время настройки в составе приборов. Однако всё это не гарантировало 100% исправное ПЗУ.»

Также в альбомах того же автора нашлись фотографии сотрудниц завода, держащие в руках как отдельные пластины, так и весь БПП. Ссылка на альбом.

❒ Блок Постоянной Памяти УВМ Электроника К-200

Блок Постоянной Памяти от управляющей вычислительной машины универсального назначения «Электроника К-200». Блок представляет собой «книжную» конструкцию из пяти страниц, на которых смонтированы печатные платы. В «переплёте» находятся межплатные соединения и разъёмы для подключения блока к УВМ. Две «страницы» занимают пластины ферритовой памяти, остальные рамки несут различные радиодетали, в том числе гибридные интегральные схемы, специально разработанные для этой УВМ.

Блок постоянной памяти содержит пластины двух видов. Оба вида представляют собой небольшую текстолитовую пластину со множеством отверстий. В некоторых из отверстий вмонтировано ферритовое кольцо, между которыми и соседними пустыми отверстиями намотаны адресные провода. Два вида пластин различаются количеством и расположением отверстий с кольцами и представляют собой запоминающие элементы и дешифраторы адреса. Запоминающих пластин в блоке 16, а дешифрационных четыре. Запоминающие элементы содержат 17-18 колец, дешифраторы 24. В одной УВМ находилось два подобных блока памяти — для чисел и команд. Объём памяти блока 2048 24-битных слов (6 килобайт), а одна пластина, согласно информационному буклету, может хранить 128 24-битных слов или 3072 бита.

Блок Постоянной Памяти УВМ Электроника К-200. Крупный план

❒ ДЗУ АУ1

Плата ДЗУ с неизвестного устройства, весьма вероятно станка с числовым программным управлением. Запоминающие трансформаторы закрываются съёмной защитной крышкой. На тыльной стороне луддированием нанесена надпись АУ1. Запоминающая часть состоит из 29 О-образных ферритовых сердечников, каждый из которых прошит 128-ю проводами, что даёт возможность запомнить 464 байта данных.


ДЗУ АУ1. Крупный план



❒ Блок памяти микрокоманд EC-5568

Блок памяти микрокоманд от устройства управления накопителями на сменных магнитных дисках. Устройство ЕС-5568 управления накопителями на сменных магнитных дисках предназначено для управления работой до восьми накопителей ЕС-5061 со сменными пакетами дисков ЕС-5261. Представляет собой небольшую плату со съёмной пластиковой защитной крышкой и плоским ламельным контактом.

Запоминающая часть состоит из 90 ферритовых сердечников О-образной формы, прошитых кодовыми проводами. Провода в количестве 256 штук идут от 32-х диодных сборок — дешифраторов. Таким образом, можно сохранить до 2880 байт данных.

Блок памяти микрокоманд EC-5568. Крупный план



▍Биаксы


❒ Кассета «П»

Долговременное запоминающее устройство «Кассета П» с электрической перезаписью информации предназначено для хранения программ, подпрограмм и различных констант. Является частью специального вычислителя третьего поколения для задач ПВО в комплексах средств автоматизации пункта управления радиолокационной роты 86Ж6 «Поле» и РЛС 22Ж6 «Десна».

В каждой кассете размещается диодный дешифратор, запоминающие ферритовые элементы биаксы и система шин для записи, опроса и считывания. Запоминающим элементом кассеты является биакс. Через каждую из кассет проходит 512 рабочих и 16 резервных адресных опросных шин. Каждая шина проходит через 37 биаксов, из которых 36 являются основными, а один резервным (контрольным). Шина проходит через 1024 рабочих и 32 резервных биакса, расположенных на разных адресных шинах. Таким образом, в запоминающей части кассеты размещены 39072 биакса, из которых 36964 хранят пользовательские данные, а остальные контрольные разряды, что даёт 1056 37-разрядных слов.

Кассета «П». Вид без корпуса

Полный комплект ДЗУ состоит из восьми кассет, для считывания используют устройство ДЗУ-Э-8К-М. К каждой кассете присоединяется через разъём усилители считывания (на фото синие короткие), которые служат для приёма считанной с накопителя памяти информации и усиления принятых сигналов.

Кассета «П». Полный комплект



❒ Матрица на биаксах

Матрица на биаксах от неизвестной ЭВМ. В отличие от предыдущего образца биаксы имеют цилиндрическую форму. Одно отверстие широкое продольное, а другой поперечное маленькое. Размеры крупные (5 миллиметров), в матрице помещается 8448 биакса, распределённые по двум сторонам. Каждая сторона разделена на четыре группы по 32 x 33 биакса. Вероятнее всего, здесь 33-разрядные слова (32 информационных и один контрольный разряд) и вся матрица хранит 128 таких слов.


Матрица на биаксах. Крупный план



▍ММС-элементы

Сердечник модуляции магнитного сопротивления — особый запоминающий элемент, информация в котором не разрушается при считывании. В отличие от биакса, имеют три соосных отверстия, а не два взаимоперпендикулярных. Производятся до сих пор компанией «Технология магнитных материалов», которая была создана на бывших мощностях Астраханского завода «Прогресс». Вот, например, информационный листок на элемент ММСВ М3000НМ1 ПЯО.707.289 ТУ, примеры изделий с которым будут показаны ниже.

❒ Кассета НН10 БЦВМ «Орбита-10»

Сменный модуль долговременной памяти НН10 из состава блока БН10-2, БЦВМ «Орбита-10». Хранил информацию о полётном маршруте и, по этим данным, самолёт мог лететь автоматически. Модуль сперва устанавливался вертикально внутрь блока БН10-2 так, что сквозь прозрачное окошечко в крышке было видно название НН10 и номер. Одна БЦВМ могла содержать два таких блока, в каждый перед полётом вставлялось по сменному модулю (один на полёт «туда», второй на полёт «обратно»). Модуль выполнен в виде кассеты со съёмной крышкой. В тыльной части находятся направляющие и разъёмы для подключения. На крышке написано название модуля, номер и направление установки.

Содержимое кассеты представляет собой печатную плату, в центральной области которой расположена запоминающая часть, а по боковым сторонам диоды и жгуты проводов. Запоминающая часть состоит из 3392-х сердечников модуляции магнитного сопротивления, расположенных двумя слоями размерами 106 на 16 колец каждый. Таким образом, можно запомнить 212 16-ти разрядных слов. Для размещения сердечников используются специальные пластиковые гнёзда.

Кассета НН10 БЦВМ «Орбита-10». Крупный план



❒ ДЗУ системы «Свой-чужой»

По некоторым источникам, это часть модуля отвечающего за систему государственного опознавания военного самолёта Миг-29. Иными словами, систему «Свой-чужой». Устройство представляет собой небольшую печатную плату, на одной стороне которой смонтирован массив запоминающих сердечников, закрывающийся защитной крышкой. Вокруг него и на тыльной стороне расположены различные радиодетали, обеспечивающие работу устройства.

Сердечники модуляции магнитного сопротивления размещены в специальных держателях в виде двухслойной матрицы размером 24 на 9. Таким образом, ДЗУ содержит 432 сердечника, способных запомнить 432 бита данных.

ДЗУ системы «Свой-чужой». Крупный план



▍ММС-линейки

Разновидность ММС-элементов, в которых сердечники не раздельные, а представляют собой ферритовые «бурсочки» с тремя отверстиями на каждую запоминающую часть. Через центральные отверстия проходят разрядные шины, через малые боковые адресные.

❒ Модули МФДЗУ-2 и МФДЗУ-3

Модули постоянной, но электрически перезаписываемой памяти МФДЗУ-2 и МФДЗУ-3 (магнитно-ферритовое долговременное запоминающее устройство). Использовался как минимум в составе оборудования самолёта ДРЛО А-50. Печатная плата обжата с двух сторон металлическими рамками, внутри отсеков которых размещены запоминающие элементы (в центральной части) и диодные сборки — дешифраторы (по бокам, в количестве 32 штук). Центральная часть закрыта ребристой металлической крышкой, а под ней ещё и залита защитным прозрачным компаундом, но из него выведено по шесть проводков с каждой стороны платы, видимо, для проверки работоспособности готового модуля.

Запоминающие элементы расположены в два ряда с каждой стороны платы. 19 разрядных шин проходит через каждую линейку, пара линеек хранит 38 бит, из которых два бита контрольные и нужны для коррекции ошибок. Реально используемый объём памяти модуля составляет 128 слов по 36 бит каждое (по 64 слова на сторону) или 4608 бит. Версии 2 и 3 конструктивно не отличаются, лишь формой крышки.

Модули МФДЗУ-2 и МФДЗУ-3 без крышки

❒ ПЗУ БЦВМ Аргон-15

БЦВМ Аргон-15 используется на самолётах и наземных мобильных военных системах. В отличие от ДЗУ которое было рассмотрено выше, ПЗУ расположено не во внешнем блоке, а внутри корпуса БЦВМ, на одной из «страниц книжки» печатных плат. Непосредственно запоминающие элементы размещены на небольшой съёмной пластине, залитые прозрачным защитным компаундом. Кроме них, под компаундом находятся шестнадцать диодных сборок — дешифраторов. Таких пластин две штуки, расположены «бутербродиком» друг на дружке в центральной части печатной платы.

Запоминающим элементом ПЗУ является ММС-линейка. Всего в ПЗУ 136 линеек с 13 адресными отверстиями в каждой, что даёт возможность сохранить 68 26-разрядных слов.

ПЗУ БЦВМ Аргон-15. Крупный план



▍Экзотика и тайна


❒ ДЗУ на колечках

Кассета ферритового ДЗУ от военной ЭВМ неизвестной, возможно, морской модели. Внутреннее пространство кассеты занято стальными стержнями с запоминающими элементами и диодами, которые прикрыты с обеих сторон защитными крышками. На крышках нанесены номера с 00 по 37 на одной стороне, и с 40 по 77 — на другой. Важно то, что нумерация не сквозная, а группами 00-07, 10-17, 20-27, 30-37, 40-47, 50-57, 60-67, 70-77. Нумерация совпадает с числом вертикальных рядов стержней, а именно 32. Каждый стержень проходят сквозь ряд колечек, делая петлю на тыльной стороне и возвращаясь назад, прошивая соседний ряд. Всего таких двойных стержней 64 штуки (два ряда по 32). В верхней части корпуса вдоль стержней нанесены надписи — цифры от 01 до 25 и символ ЗН. Цифры нанесены зелёным и жёлтым цветом начиная с зелёного и чередуясь через три. Символ ЗН красного цвета. Число рядов ферритовых колечек совпадает с количеством надписей, а конкретнее — их 26. Возможно, что это разрядность хранимого слова (25 информационных + 1 контрольный бит). В составе ЭВМ шло не менее восьми таких кассет, маркированных от М1 до М8.

В кассете используется 64 двойных стержня и 26 рядов колечек на стержне, потенциально до 3328 шт. на кассету, что даёт 416 байт. Особенность конструкции в том, что колечки просто надеты на стержни и никакие другие проводки не пронизывают их — колечки свободно вращаются вокруг стержней. Нанизанные на стержни колечки разделяются на ряды текстолитовыми пластинками, через которые прошиты проводки, проходящие рядом с колечками, что похоже на обмотку или шины считывания. Вдобавок пластинки не дают колечкам перемещаться в стороны вдоль стержней. Многие колечки на стержнях отсутствуют и не похоже, чтобы это было поломкой. Вполне возможно, при присутствии колечка, в шине считывания должен появиться сигнал, что будет говорить о логической единице, а где колечка нет, сигнала не будет, что означает логический ноль. Вдобавок полагаю, что такая конструкция может перепрограммироваться без существенной пайки и кропотливого нанизывания проводов — нужно лишь надеть колечки на стержни в нужных местах.

ДЗУ на колечках. Крупный план

❒ Модуль памяти на пластинах МП-27

Модуль памяти из состава оборудования АСУ командного пункта зенитной ракетной бригады 73Н6 «Байкал-1». Конструкция модуля выполнена в виде книжки из четырёх страниц, три из которых электронные платы, а четвёртая — куб ферритовой памяти. На платах расположены разъёмы подключения модуля в аппаратную стойку и два разъёма для подключения иного оборудования — проверочного или записи информации. Главная интрига в том — ОЗУ это или ПЗУ?

Сам куб ферритовой памяти собран на 32-х пластинах МП-27. Пластина МП-27 имеет нумерованные выводы с четырёх сторон. С двух сторон 16 выводов (Г1… Г8 и В1… В8) расположены в ряд + один дополнительный вывод, обозначенный как перевёрнутая T. С двух других сторон их 32 штуки (два слоя по 16). Выводы одной стороны подписаны от 1НК до НК27, где Н и К указывают на слой. Также слева от 1НК добавлена перевёрнутая T, а справа от НК27 добавлена X и эти выводы объединены общей шиной. С другой стороны надписи уже идут от 2НК до 28НК и X заменена на вторую перевёрнутую Т. Возможно, что внутри ММС-линейки, по три отверстия на бит, но, к сожалению, куб не разбирается на пластины без существенной распайки и разрезания общих шин, а пока не хочу портить экспонат. Но когда-нибудь обязательно решусь его разобрать для исследования.

Блок памяти на пластинах МП-27. Крупный план

Заключение

Классическая (под классической я понимаю ту, где можно физически взять в руки один бит) ферритовая память была вытеснена полупроводниковой ещё в 80-е годы XX века. Часть устройств старой разработки продолжало выпускаться в 90-е годы, но из замена велась постоянно. Например, рассмотренное выше ДЗУ командного пункта в

современном варианте

выполнено на семи микросхемах 556РТ7А (и кучки мелкой логики), сохраняя те же габариты, внешний корпус и способ подключения к стойке (число, расположение и тип разъёмов) как в былой ферритовой версии. Новые блоки называются ПЗУ 4Кx26 и ПЗУ 4Кx26М. В интернете

упоминаются работы

по замене флотских кассет ДЗУ-8, полупроводниковыми аналогами УБПД-5 и даже имеется

фотография современной начинки

при сохранении старого размера и способа подключения (обратите внимание на подпись к снимку по ссылке). Заменялись и блоки МЭСБ ФОЗУ -2, ФОЗУ -16 и ФОЗУ -32 на

вновь разработанные блоки

на новой элементной базе УБПО-2, УБПО-16, УБПО-32. Модули МФДЗУ-3 периодически закупаются АО «КЭМЗ» и, вероятно, до сих пор производятся. Кроме этого, отечественная промышленность выпускает MMC-элементы, а, возможно, и кубы памяти, в качестве ЗИПа, и на экспорт (например, к проданным за рубеж комплексам ПВО прошлых поколений).

В интернете бытует утверждение, что, поскольку, ферритовая память не боится радиации, то её следует использовать в дальнем космосе или зонах радиационного заражения. Однако забывают, что вычислительное устройство — это не только память, но и множество микросхем логики, которые остаются полупроводниковыми и нет практического смысла использовать железную дверь в комнате с картонными стенами. Современные радиационно устойчивые компьютеры, например, RAD750, несут на борту полупроводниковую память. К тому же во многих случаях радиационную защиту можно усилить созданием свинцового корпуса.

Если же говорить о, в той или иной мере, ферритовой неклассической памяти, такой как магниторезистивная оперативная память или сегнетоэлектрическая оперативная память, то здесь имеются определённые перспективы, технологии развиваются, а чипы выпускаются. Однако, в этих типах памяти не осталось ни толики видимой невооружённым глазом технической эстетики. Внешне — это лишь корпус очередной микросхемы.

Список дополнительных источников

Камила Валиева выступила с короткой программой на Олимпиаде — сквозь слезы и дрожь. И выиграла ее

Во вторник, 15 февраля, на Олимпиаде-2022 в Пекине стартовали соревнования по фигурному катанию среди женщин. Турнир обрел новый пик популярности после допинг-скандала вокруг российской фигуристки Камилы Валиевой. От нашей команды помимо Камилы выставлены были еще две спортсменки — Александра Трусова и Анна Щербакова. Все три наших девушки были поставлены в финальную разминку и закрывали прокаты, которых ждал весь мир.

Финальная разминка, в которую попали три российские фигуристки, выступала чуть больше получаса. Но именно она, а не три с половиной часа прошлых четырех разминок, были самым важным событием турнира фигуристок. Потому что там — Камила Валиева (26 стартовый номер), Александра Трусова (28), Анна Щербакова (29). В современном мире объективно только эти три фигуристки могут биться между собой за медали на любых турнирах, в которых принимают участие. Просто потому, что их уровень выше остальных. Но не было понятно, как скажется то психологическое давление, которое оказывалось на троицу из «Хрустального» последние дни перед стартом.

На Олимпиаде перед выходом на лед россиянок завершались прокаты предпоследней разминки фигуристок. В лидерах были Вакаба Хигучи из Японии (73,51), за ней — Луна Хендрикс (70,09), третья — Алиса Лью из США (69,50). Именно японка была ориентиром для последней шестерки. Но камера трансляции периодически выхватывала все равно Камилу Валиеву. Ее выход на лед — главное событие дня на Олимпиаде сегодня, 15 февраля. Ну, и после проката Екатерины Рябовой режим ожидания закончился. Азербайджанская фигуристка получила от судей 61,82 балла. Тройка лидеров не поменялась.

Камила Валиева выступила в короткой программе на Олимпиаде. Фото: REUTERS

С трибун внимательно за прокатами наших следили близкие друзья фигуристок — Евгения Медведева, Алина Загитова и выступающий за Грузию Морис Квителашвили, свои люди из «Хрустального». Раскатка завершилась и первой на лед вышла американская фигуристка Карен Чен. Она не смогла прокатать свою короткую программу хорошо — те же ошибки, что и в командном турнире. Подвело падение с тройного риттбергера. Карен уезжала, держась с досады за голову. И пока она ждала своих оценок, на льду уже наворачивала тренировочные круги главная героиня Олимпиады в фигурном катании — россиянка Камила Валиева. Чен от судей получила 64,11 балла. Скромно. После чего весь мир затаил дыхание — прокат Валиевой в Пекине. Последние наставления и слова ей лично у бортика давала Этери Тутберидзе.

Валиеву зал встретил аплодисментами и овациями. Фигуристка сделала глубокий вдох, и поехала. Тройной аксель у нее не получился. Судьи поставили красный квадратик как невыполненный элемент. Но зато был чистый тройной флип и каскад тройной лутц — тройной тулуп. Завершила прокат Камила, после чего заплакала.

— Сейчас Камила заслуживает эти аплодисменты в большой мере. Счастье, что она была вот именно такой в эти моменты. Буквально вчера, когда давала интервью, сказала — я за последние дни почувствовала себя из молодой девушки во взрослые люди. К сожалению, тройной аксель не был таким кристально чистым. Вывалило из круга и такой огромный запас на прыжках. Все переживают за Камилу. За Камилу мы переживали каждую секунду последних дней, — оценил выступление фигуристки в эфире «Первого канала» олимпийский чемпион Алексей Ягудин.

Александра Трусова в короткой программе Олимпиады-2022 в Пекине. Фото: REUTERS

Дебют на личном первнестве случился. Решение судей за прокат? Ей дали 82,16 балла. Она захватила лидерство! Ю Ен из Южной Кореи не смогла составить конкуренции — 70,34 балла. После чего на льду появилась наша Саша Трусова. Результат Камилы остался для нее ориентиром.

Тройной аксель тоже не покорился Саше Трусовой, она не осилила этот элемент на Олимпиаде. И первые два элемента (аксель и флип в три оборота) у нее были «под вопросом» со стороны судей. Каскад тройной лутц — тройной тулуп у Трусовой получился получше. Но все-таки судьи уж очень пристально решили «разобрать» Трусову — три «желтых» квадрата из семи. Но больше 40 баллов за технику.

— Страсть, огонь, все было в этом прокате. Она не просто отбывает время на прокате. Но, опять же, срыв в самом начале тройного акселя. Она разводит руками. И вот — не хочет Саша снижать эту планку. Мы не увидели чистое исполнение тройного акселя и вот, как мы слышали, она ищет гармонию, которая позволит выполнить этот элемент. Мне что-то подсказывает, такого сильного человека, который никогда не снижает определенной планки, она добъется. Она сделает тройной аксель! — сказал Алексей Ягудин.

Анна Щербакова во время проката на Олимпиаде в Пекине. Фото: REUTERS

Судьи дали Трусовой 74,60 балла. Она встала второй сразу же за Камилой Валиевой. Вышедшая следом Анна Щербакова выдала невероятной мощи прокат. Все — чисто, все элементы — на плюсы! Она прыгнула двойно аксель, тройной флип, тройно лутц, троной тулуп.

— Браво, Аня Щербакова! Браво! Радуемся как дети. Нет никаких вопросов, все элементы в зеленой зоне. У этой спортсменки просто нет слабых мест в программе, — сказал в эфире «Первого канала» Алексей Ягудин.

Судьи оценили прокат по максимуму. Решение по баллам — просто мощь! 80,20 балла и вторая позиция вслед за Камилой Валиевой. Личный рекорд. Закрывала выступления Каори Сакамото. Она выдала чистый мощный прокат. И! Вердикт арбитров для японки — 79,84 балла. И она стала третьей, отодвинув Сашу Трусову с третьей позиции.

Олимпиада-2022. Пекин, Китай. Фигурное катание. Женщины. 15 февраля. Результаты короткая программа

  1. Камила Валиева (Россия) – 82,16
  2. Анна Щербакова (Россия) – 80,20
  3. Каори Сакамото (Япония) – 79,84
  4. Александра Трусова (Россия) – 74,60
  5. Вакаба Хигучи (Япония) – 73,51
  6. Ю Ен (Южная Корея) – 70,34
  7. Луна Хендрикс (Бельгия) – 70,09
  8. Алиса Лью (США) – 69,50
  9. Ким Йе Лим (Южная Корея) – 67,78
  10. Анастасия Губанова (Грузия) – 65,40
  11. Мэрайя Белл (США) – 65,38
  12. Элишка Бржезинова (Чехия) – 64,31
  13. Карен Чен (США) – 64,11
  14. Николь Шотт (Германия) – 63,13
  15. Мана Кавабе (Япония) – 62,69
  16. Екатерина Рябова (Азербайджан) – 61,82
  17. Виктория Сафонова (Беларусь) – 61,46
  18. Ольга Микутина (Австрия) – 61,14
  19. Алексия Паганини (Швейцария) – 61,06
  20. Маделин Скиза (Канада) – 60,53
  21. Эва-Лотта Кийбус (Эстония) – 59,55
  22. Линдсей ван Зандерт (Нидерланды) – 59,24
  23. Александра Фейгин (Болгария) – 59,16
  24. Екатерина Куракова (Польша) – 59,08
  25. Йенни Сааринен (Финляндия) – 56,97
  26. Йозефин Тальегард (Швеция) – 54,51
  27. И Чжу (Китай) – 53,44
  28. Наташа Маккей (Великобритания) – 52,54
  29. Кайлани Крейн (Австралия) – 49,93
  30. Анастасия Шаботова (Украина) – 48,68

Шампунь KeraSys Увлажняющий — «Увлажняющий шампунь на длинных, плотных и тяжелых волосах.😽 Я говорю «Да!», первое знакомство с KeraSys принесло хорошие впечатления.»

Доброго всем дня! ))


Вообще я не ярый фанат ухода за волосами, но об этой марке знаю. Её советовали как коллеги по работе, так и некоторые знакомые и подруги.
Ни капли не бюджетное средство, но благодаря скидкам в Ашане, удалось взять запаску на пробу.

Полка с корейскими «вкусняшками».

Тем более как раз тогда, когда я очередной раз покрасила волосы и мне нужно было максимально увлажняющее средство.


*** Внешний вид. Состав. ***

  • Приобретен в Ашане.
  • Производитель, — Южная Корея.
  • ​​​​​​Бренд, — KERASIS
  • Цена, — Приобрела за 299, сказали что это весьма недорого. Даже с учётом того, что это запаска, а не флакон.
  • Объём, — 500 мл.
  • Тип шампуня, — увлажняющий.
  • Применение, — для сухих и ломких волос.

Похож на пакет с кондиционером для стирки. Оформление в бело-голубых тонах. И несмотря на простоту, почему-то привлекает взгляд.
Может за счёт ярких, металлического цвета, полос по краям.

Дата выдавлена в левом верхнем углу, что радует такую зануду как я.
Такой способ маркировки (наверное) невозможно перебить новой датой, если у продукта вышел срок годности. у меня насчёт этого вечная паранойа На лицевой части указано главное направление данного шампуня, — увлажнение. А также что его лучше применять для сухих, ломких волос.

Ну и то про, что наша линейка профессиональная, и бла бла бла…

На обороте вся остальная информация, — как применять, состав шампуня, кто производитель и какие-то предупреждающие записи, которые немного закрыла русифицированная наклейка.


Кстати, где-то читала о том, что лучше всего покупать упаковки, где не на пачке выбит перевод, а над ней в форме наклейки. Типа продукция внутреннего потребления лучше чем та, что идет на экспорт на русский сегмент. (поправьте меня, если кто лучше в этом разбирается.)

Состав: Water, Sodium laureth sulfate, Ammonium chloride, Dimethicone, Cocamidopropyl betaine, Guar hydroxypropyltrimonium chloride, Sodium Benzoate, citric asid, Trihydroxystearin, Cocamide MEA, Sodium chloride, Sinthetic Fluorphlogopite, laureth-23, laureth-3, Titanium dioxide, phenoxyethanol, xanthan gum, Argania Spinosa Kernel oil, Disodium Edta, Persea Gratissima (Avocado) Oil, Simmondsia Chinensis (Jojoba) Seed Oil, Glycerin, Saccharide Isomerate, Alcohol, Leontopodium Alpinum Extract, Achillea Millefolium Extract, Arnica Montana Flower Extract, Artemisia Absinthium Extract, Gentiana Lutea Root Extract, Propylene Glycol, Potassium Sorbate, sodium citrate, Fragrance.

В составе, кроме типичных sls и других очищающе-пенящихся компонентов присутствуют также смягчающие компоненты:

Argania Spinosa Kernel oil, — широко встречается в составе готовых косметических средств: кремов, кондиционеров и красок для волос, а также в другой косметике. Хотя содержание этого компонента в косметике составляет обычно всего 1-5%, но этого достаточно для придания великолепных свойств продукту. Это превосходный увлажняющий, питающий и заживляющий продукт, который, правда, имеет высокую цену. Масло легко впитывается и заменяет кожное сало, тем самым оказывая эффективное смягчающее действие. Рекомендуется применять масло для лечения ломких ногтей, уменьшения сухости кожи и волос.

Persea Gratissima (Avocado) Oil, — используется в уходе за сухими, пористыми, истощенными и поврежденными волосами. С жирным и нормальным типом волос — с осторожностью, поскольку оно является очень питательным. Применение в уходе за шевелюрой преследуют следующие цели: защитить от ультрафиолетовых лучей и от вредного воздействия фена и горячего утюжка, смягчить, устранить ломкость, придать блеск, сделать волосы более послушными, облегчить расчесывание.

Simmondsia Chinensis (Jojoba) Seed Oil, — Важную роль оно играет и в восстановлении волос. Применение масла жожоба помогает справиться с тусклостью волос, предупреждает их выпадение и сечение. Средства на его основе придают волосам объем и сияние, восстанавливают внутреннюю структуру волоса, защищают от повреждений и ломкости.
Glycerin, — хорошо увлажняет и помогает удерживать влагу в волосах, что очень полезно для сухих и вьющихся волос, и коже.

Saccharide Isomerate, — Мягкий эмульгатор, придает кремам стабильность, сильное увлажняющее свойство, снимает раздражение, защитная функция, влагоудерживающий компонент, кондиционирование кожи и волос.

А также целый сонм различных экстрактов трав, чьи свойства вполне можно относить к благотворным по отношению к волосам:

Leontopodium Alpinum Extract, — ценный во всех смыслах этого слова косметический компонент, который может обеспечить многочисленные выгоды для кожи. Этот растительный экстракт выступает как мощный антиоксидант, оказывающий защитное, смягчающее и противовоспалительное действие. (с)

Achillea Millefolium Extract, — Известен своими ранозаживляющими, противовоспалительными, тонизирующими, укрепляющими, антиаллергическими свойствами. В косметологии применяется в средствах для детской, нормальной и жирной кожи, средствах для укрепления волос.
Arnica Montana Flower Extract, — Применяют в средствах от угревой сыпи и для ухода за жирной кожей, препаратах против перхоти и выпадения волос. Способствуют улучшению кровообращения, снимают отечность.
Artemisia Absinthium Extract, — Полынь содержит производные кумарина: кумарин, скополетин; флавоноиды, рутин, сапонины, витамины С и группы В, большое количество минеральных солей. Экстракт оказывает противовоспалительное действие. Снимает зуд, уменьшает активность сальных желез, оказывает бактерицидный эффект. Применяется в средствах по уходу за жирной кожей и волосами.
Gentiana Lutea Root Extract, — В корнях и корневищах содержатся алколоиды (в том числе генциацин), гликозиды, флавоноиды, горькие вещества, сахароза, смолы, растительные слизи, жирное масло, большое количество пектиновых веществ. Экстракт корней обладает комплексной биологической активностью: оказывает тонизирующее, вяжущее, антисептическое , противосеборейное, кондиционирующее действие. Применяется в средствах для волос и кожи.

Напихали так напихали…
Можно конечно, порадоваться такому количеству плюшек, но всё же стоит не забывать о том, что важно также их качество сырья, плюс сочетаемость компонентов.
В конце концов я не разработчик и не химик, чтобы по одному составу можно было сказать хороший это шампунь или не ok.
Единственное что можно соотнести то, что шампунь заявлен как увлажняющий, — так оно походу и есть.
Важно также и отметить то, что в составе есть силикон:

Водорастворимые силиконы. Используютcя в косметике для придания гладкости и блеска. Они смываются водой, но не полностью. Если игнорировать глубокую очистку, силиконы будут накапливаться. К этой группе относятся: Lauryl Methicone Copolyol, Dimethicone Copolyol.

В цитате выделила то, что есть в нашем шампунчике.
Так-то это не особо плохо. Особенно для обладателей длинной шевелюры, где кончики неизбежно начинают мертветь и сечься.
Просто к нему нужно докупить какой-нибудь шампунь глубокой очистки и время от времени делать детокс волосам. Да и может этого силикона тут не так уж и много чтобы паниковать.


Можно также и обратить маленькое внимание на последний пункт в списке состава, — ароматизатор.
Спойлер, — шампунь сильно ароматный, да.

Также вот фотография русифицированной наклейки, где указано всё, что и так можно разобрать исходя из состава:


*** Применение и результаты. ***

Прежде всего о моих волосах, — на какой базе основывается мой опыт. 😺


Структура волоса у меня максимально плотная и толстая. Никакой пористости и лёгкости никогда не ощущала.
На данный момент осветлены Блондеа (мазохизм, знаю.) и окрашены Тоникой «Кровавая Мэри». За счёт чего немного повреждены, суховаты и даже слегка электризуются.
Выглядели после всех экзекуций, до применения шампуня вот так:

Ну и макушка.

красное на коже, это следы окрашивания.

Так как упаковка продукта представляет собой запаску, то использовать пакет я не стала. Сразу же после открытия пачки, перелила содержимое в пустую бутылочку из-под прошлого шампуня.
Представьте себе если такой пакет просто упадёт, — всё содержимое почти сразу же вытечет. 😿

Визуально особо примечательного не вижу, это обычный густенький шампунь белого цвета с перламутровым оттенком. Этакая жидкая жемчужинка…
Сильное отличие, наверное запах. Сильный, но на мой нюх, весьма приятный.
Почему-то напомнил ароматизированные странички какого-нибудь avon журнала. Сладкий, кондитерски-цветочный с едва заметной горчинкой, как от цветка акации. Если что, пена розовая от тоники, — это всегда так. (После окрашивания всегда красит воду, шампуни и бальзамы)

А так, вот той лужицы, что на предыдущей фотографии, хватает на одно намыливание головы. Могу сказать что расход довольно экономичный.

Намыливаю и смываю я дважды, всегда. Так что двух «лужиц» хватает на полноценную помывку головы. На мой взгляд, это около 30 мл шампуня. Навскидку.


Во время смывания шампуня, чувствую что волосы хорошо промыты, есть ощущение чистоты. Лёгкий скрип присутствует, но не до такой степени, что кажется что весь защитный кожный жир стёрт с лица земли.
Но это не значит что нужно перестать пользоваться бальзамами и масками. Поэтому после первого же раза использовала свой привычный бальзам для волос.

Запах парфюма остается на волосах совсем ненадолго, и довольно быстро исчезает, не успев надоесть.

Кузен ит передает вам привет!

Обычно мытьё волос после первого окрашивания это всегда немного плачевный результат в плане волос, особенно расчёсывание. Но тут всё таки чувствуется что с увлажнением и мягкой помывкой он весьма справился.
Хотя та же электризация на время сохранилась, это видно по второй фотографии.

макушка после мытья и спустя два дня.

Немного разное освещение, но думаю видна разница в плане загрязнения.

Шампунь не особо сильно утяжелил волосы. Мою в обычном режиме, — раз в три дня. (В некоторых случаях раз в дня дня, но это если было много физических нагрузок, когда сильно потеешь.)
К примеру, когда-то использовала тоже схожий по обещаниям шампунь, — Natura Siberica Oblepikha Professional Питание и восстановление с эффектом ламинирования.
Но тот был без сильных пав, и волосы загрязнялись просто жуть. Чуть ли не состояния сосулей, особенно это было видно в области за шеей, где они соприкасаются с кожей.
Я боялась такого же эффекта, но слава богу, обошлось.
Провела также эксперимент с мытьём волос без масок и бальзамов.

Результат естественного высыхания, еще не расчесаны. 😹
Не делайте так.
В принципе так тоже можно, за один раз волосы без должного ухода не отвалятся. И во время расчёсывания без дополнительных средств не будет горки «обломанных веточек».
По сравнению с обычным шампунем средней ценовой категории, KeraSys безусловно лучше. Можно помыть голову безо всего даже окрашенные или суховатые волосы и получить приемлемый результат, где как с другим, такое не прокатит. (обычно это совсем пересушенное воронье гнездо.)

Расчёсаны.

Но всё же лучше с бальзамчиками и несмывашками, иначе забодаетесь потом это всё расчесывать и приводить в надлежащий вид…

 

*** Итоги. ***
Мне шампунь понравился. Хоть я и сторонник того, что этот косметический продукт должен просто хорошо промывать волосы без негативных последствий, а всё остальное от нечистого, а с остальным должен справляться хороший бальзам/маска/сыворотка.

Но тут скорее приятное исключение. Лёгкий смягчающий, увлажняющий эффект вкупе с хорошим очищением оказался приятной находкой для меня.

Плюс не утяжелил и без того, довольно тяжелые волосы. Частое мытьё тоже не понадобилось, так как увлажняющие и очищающие свойства средства были хорошо сбалансированными.

Для окрашенных неплохо зашел, не заметила чтобы он сильно вымывал цвет из волоса, как это случилось после использования Meela Meelo.

Как минимум две недели уже пользуюсь, полёт отличный.

 

Вроде ничего прям чудесного и преображающего с моими волосами он не сделал, но иногда просто отсутствие негативных последствий, — уже отличный результат. Не каждый шампунь так может.

Спасибо за внимание, надеюсь данный отзыв был актуален для вас при выборе средства. От меня же 5 звезд и твёрдое, — рекомендую!

Если интересно, оставлю ссылки на другие средства для волос:

Бальзам для волос Рецепты бабушки Агафьи Таежные истории Репейник- медведь. Востановление силы волос. — Простенькая, но рабочая лошадка для мягкости и послушности волос.

Бальзам Compliment для Поврежденных и ослабленных волос — Пожалуй самое недорогое, но в тоже время хорошее средство.

Маска для волос Бэлисс улиточная слизь — Слабая по эффекту+слишком дорогая при таких свойствах. Производство,- Китай.

Кондиционер для волос Kharisma Voltage Sea Salt Conditioner — тот самый архи-редкий случай когда я ставлю единицу. Еще бы, бальзам который сушит!🙀😾

«Самое страшное, что пациенты в сознании, пока готовится коктейль забвения»: дневник русского доктора в Нью-Йорке

К началу апреля США вышли на первое место по количеству больных коронавирусом — заразилось уже 400 000 человек. При этом очагом эпидемии в Америке является ее крупнейший город Нью-Йорк, где заболевших более 77 000, а летальных исходов свыше 4000.

Евгений — врач-реаниматолог в одной из нью-йоркских больниц. После окончания Московского медицинского университета им. Пирогова в 2003 году он уехал в США, окончил ординатуру по общей терапии и получил специализацию по пульмонологии и интенсивной терапии. С 2012 года живет и работает в Нью-Йорке. Евгений ведет хронику происходящего, того что происходит в больнице и за ее пределами. Forbes с разрешения автора публикует этот дневник периода пандемии.

17 марта

Немного новостей с полей сражений. Пациенты поступают, пока что единицы тяжелых, много — среднетяжелых и легких пациентов с высоким подозрением. К счастью, тесты привезли и койки с изоляцией есть. Боюсь, ненадолго, и придется делать ковидные отделения. По моим ощущениям, больше пациентов в Бронксе и на севере Манхэттена, чем в Мидтауне и Бруклине, что в целом логично, учитывая кластер в Нью-Рошели. Основная проблема — защита персонала. Не хватает масок всех видов, защиты глаз, биокостюмов. И это практически повсеместно. Персонал напуган, многие сказываются больными, и все больше опасений, что не будет хватать медработников.

Реклама на Forbes

Сейчас происходит что-то, что поменяет жизнь на много лет.

Постоянно пишу всем: обязательно продолжайте карантин. Единственный наш шанс не превратиться в полигон с соответствующей сортировкой и продолжать помогать пациентам в больницах — это замедлить распространение вируса. Изоляция работает, при строгом карантине достославное число Rо (в эпидемиологии базовое репродуктивное число — Ro, определяет количество лиц, зараженных одним инфицированным лицом на протяжении всего инфекционного периода. — Forbes Life) снижается ниже одного в течение нескольких недель. Жертвуйте излишки масок больницам по соседству. Дома маски не помогут в любом случае.

Больницы для одного пациента и ИВЛ за $25 000: как состоятельные россияне подготовились к пандемии

19 марта

Мы пока живем первую неделю в условиях средней изоляции, в Италии уже несколько недель жесткий карантин, Китай начинает выходить из изоляции. Какие-то ограничения есть во всех странах. Наступает новая реальность. Нам всем очень будет не хватать теплого лампового ДО-ковидного (я патентую это прилагательное) мира. Но пока это не повод сойти с ума. Большинство из нас переживет это время и, в отличие от Второй мировой, большинство семей не будет считать жертвы. Но при этом ментальное напряжение уже чувствуется в воздухе. Молодые люди с легкой формой или с подозрением на инфекцию, а то и просто здоровые люди страшно тяжело переносят именно ментальное давление. Легкое физиологическое течение сопровождается бессонницей, манией, поглощением огромного количества информации по теме. Это очень серьезно, может случится со многими и, скорее всего, не пройдет бесследно для душевного здоровья. Найдите какую-то отдушину, любимые книги, игры, фильмы, индивидуальный спорт. Медитация, в конце концов. Не думайте об этом целыми днями, не читайте новости о вирусе. Когда случится что-то хорошее, вам наверняка сообщат. Удачи всем, я обратно в «Заповедник».

22 марта

Я планирую писать о жизни на поле боя во время эпидемии. Я не представляю, что произойдет, получится ли писать часто или придется носиться кругами. Так же, как и все, я знаю очень мало про этот вирус. Информация появляется постоянно, меняется ежедневно. Сейчас происходит что-то, что поменяет жизнь на много лет.

«Есть два сценария»: совладелец Шереметьево Александр Пономаренко о возобновлении международных полетов и последствиях пандемии

24 марта

Погода нам явно помогать не собирается. Ледяной ливень с ветром и плюс два. В метро объявление: пользоваться общественным транспортом только по жизненной или профессиональной необходимостям и находиться друг от друга минимум в двух метрах. Правда, забыли при этом увеличить площадь вагонов. Народу было немного, но найти свободный участок на дистанции  два метра оказалось задачей невыполнимой. По профессиональной необходимости ехали я и, судя по костюму, медсестра. У остального десятка пассажиров необходимость видимо была жизненная. Огромный дядька со всеми показателями сложной интубации кричал приятелю, сидевшему через проход, о его надеждах на возобновление баскетбольного сезона к лету. Дистанцию в два метра он активно компенсировал невероятной громкостью и безостановочным потоком слов. Изоляция.

Фото Kena Betancur·Getty Images

Придя в больницу, я в очередной раз осознал, как сложно передвигаться, ничего не трогая. Дорога в мой офис/зону деконтаминации и оттуда в БИТ (бокс интенсивной терапии. — Forbes Life) оказывается полна ручек, которые можно только повернуть. Куча дверей, отделяющих эти географические точки, открывается в обоих направлениях, по дороге туда и обратно, какие-то двери надо тянуть на себя. Дорога в туалет превращается в нетривиальную спецоперацию. Новая стратегия: набираю горсть антисептика по дороге в одном направлении и мою руки, прибыв на место. Левая рука у меня в любом случае атавизм, но держать антисептик в ней я могу.

Ковид теперь занимает где-то половину коек больницы и две трети коек в реанимации. Разброс возрастов, кто-то очень тяжелый, кто-то медленно улучшается. Вентиляторов хватает, но проблема с изоляционными койками. Маски пока есть, все под замком. Результаты тестов продолжают задерживаться непонятно где. В больницах, прикупивших себе машинки для ПЦР (полимеразная цепная реакция, метод диагностики коронавируса. — Forbes Life), возврат очень быстрый, но у нас, к сожалению, такой диагностики нет, так что ждем несколько дней. Все подозрительные пациенты с тяжелым и умеренно тяжелым течением на гидроксихлороквине и азитромицине. Аритмий пока не было, чудесных излечений тоже, так что к концу недели будут заполнены все койки.

Обеднеть в два раза за месяц: как пандемия сократит доходы россиян

25 марта

Лет десять назад я пытался стать пульмонологом и заодно реаниматологом.  Исторически это считалось совместной специализацией. У меня был десяток интервью, три месяца безумных перебежек от Атланты до Бостона. В середине этой географии притаился Ньюарк. Тот, что в штате Нью-Джерси. Директора программы звали Тирувингадам Анандарангам. Я тренировался говорить «доктор Анандарангам» перед зеркалом. Получалось не очень.

Все они сейчас в очагах этого ада, продолжают делать все возможное для повышения шансов пациентов, которые больны тяжелее, чем большинство этих опытных врачей могут представить.

Дружище Анандарангам оказался самым работоспособным, веселым и безжалостным ментором, которого я знал. Он любил поймать меня в восемь вечера и оттащить куда-то делать торакоцентез (процедура пункции грудной полости. — Forbes Life), а то и погонять 45 минут по формулам  сидящего в те времена в каждом тяжелом пациенте Сван-Ганца (катетер легочной артерии. — Forbes Life). Запаса реаниматологии, выученного от него, хватило на долгие годы, как и запаса пульмонологии от другого колоритного персонажа с того интервью, директора Центра трансплантации легких Шона Студера.

Интервью закончилось выступлением доктора Студера о трансплантации легких, из которого я не понял почти ни слова, но вовремя смеялся шуткам из поп-культуры и к месту активно кивал. И через пару месяцев узнал, что меня взяли именно в Ньюаркский госпиталь сынов Израиля. Начал работать и учиться примерно в одно время с началом эпидемии h2N1. Тогда ОРДС (острый респираторный дистресс-синдром, тяжелое проявление дыхательной недостаточности. — Forbes Life) был повсюду. Мы — радостные молодые специалисты — бегали по больнице, интубировали, пробовали безумные методы вентиляции легких, достославное ЭКМО (инвазивный экстракорпоральный метод насыщения крови кислородом. — Forbes Life), осцилляторы. Казалось, что все работает, хотя пациенты улучшались постольку-поскольку, многие умирали.

Прошло десять лет, и в мире COVID. Тот же ОРДС, который улучшается еще медленнее, чем обычно. ОРДС, от которого нет особого лечения и который, видимо, пришел надолго.

Какой будет жизнь после пандемии коронавируса? Ответ на этот вопрос дает Ухань

Никаких особых новостей изнутри. Пациенты поступают и оседают. Молодые улучшаются, но недостаточно для вывода с ИВЛ (искусственная вентиляция легких. — Forbes Life), а новых все больше. Развертывается новый блок интенсивной терапии, план развернуть третий. Вентиляторов пока хватает, прошел слух о закупке нового защитного оборудования. Сегодня позвали для осмотра пациентки с метаболической энцефалопатией, почечной недостаточностью и отсутствием подозрения на ковид. Увидев нормальный уровень лимфоцитов, я испытал прилив почти забытой радости. Тот случай, когда точно знаешь, что с пациентом все сложится неплохо. Ну как минимум до следующей попытки смешать в блендере все свои лекарства, включая «таблетки из Гаити» (наркотические препараты, сленг. — Forbes Life), так как уровень сахара все не понижался.

Реклама на Forbes

За десять лет я поработал с множеством интенсивистов (врачи-реаниматологи. — Forbes Life) в БИТах десятка больниц. Все они сейчас в очагах этого ада, продолжают делать все возможное для повышения шансов пациентов, которые больны тяжелее, чем большинство этих опытных врачей могут представить.

Фото Lokman Vural Elibol·Anadolu Agency via Getty Images

26 марта

В вагоне теперь не больше семи-восьми человек. Наконец-то изоляция. Довольно асоциальная. Усталые, бедно одетые люди мрачно перемещаются из Бронкса и Верхнего Манхэттена в Бруклин. Зачем? Иногда проходят нищие. У меня не осталось однодолларовых купюр, теперь я всегда подаю. Изредка попадаются одетые в хирургическую форму врачи или медсестры. Обычно выглядят они сильно замученными, и мне кажется, что я могу различить мельтешащие ковидинки на их одежде.

Про каждое изменение у пациентов говорят, что, наверное, это не из-за ковида, но, кто его знает. Ковиду приписывают суперспособности

В больнице продолжается битва с переменным успехом. Открываются еще два полфронта, небольшой (пока) БИТ для ковида и еще один для неликвида. Такое ощущение, что мы излечили вообще все. Куда-то делись септические шоки и желудочно-кишечные кровотечения. Команды быстрого реагирования, готовые атаковать любую тромбоэмболию легочной артерии, «пылятся» без дела, и в администрации думают, куда бы применить их узкоспециализированные навыки. Даже вечный контингент пациентов — пьяная травма и белая горячка — куда-то исчез, захватив с собой неистощимый запас «собратьев» — героев героиновых передозировок.

Почему Германия справляется с коронавирусом лучше других стран в Европе

Во время процедуры выписки, где в небольшой комнате вынуждены общаться десяток докторов, юмор становится все мрачнее. Про каждое изменение у пациентов говорят, что, наверное, это не из-за ковида, но кто его знает. Ковиду приписывают суперспособности. Представил, как через неделю, рассказывая про редкую теперь почечную недостаточность из-за обструкции мочеиспускательного канала увеличенной предстательной железой, один из моих коллег скажет: «Я знаю, что это часто случается у пожилых мужчин просто так, но из-за ковида все может быть».

Реклама на Forbes

В Нью-Йорке в день случаев больше, чем в Италии. Мы явно любим бегать по полю с чужими граблями. Ждем армию и военное положение.

Вентиляторы и маски есть. По слухам, прибывает большая партия масок и другого защитного оборудования от китайской общины и вторая — от губернатора. Про вентиляторы слухи в основном страшноватые. Нехватка уже ощущается во многих больницах. У нас пока есть запас. Все равно довольно неуютно. Неожиданно закончились одноразовые накидки для работы с контактными пациентами. Нашли какое-то количество в других отделениях, где медсестрам не приходится заходить в палаты так часто. Кризис миновал, но уровень стресса был осязаемым.

Там, где всего этого ада еще нет, — берегите себя, накапливайте вентиляторы и маски высокой защиты в больницах, а не дома. Увеличивайте надежду на то, что кривая завернет пораньше, чем у нас, и медсестры не подерутся из-за пластиковых накидок по четыре доллара за два десятка.

Тайна COVID-19: почему уровень смертности от коронавируса остается загадкой

27 марта

Пока без изменений, мы в порядке, припасы есть, коек стало больше. Ничего больше хорошего и не скажешь. Даже пациентов с умеренным течением гнусный вирус умудряется достать каким-то опосредованным способом и уменьшить их шансы на выздоровление. Метро сегодня почти битком, на улицах полно народа. Солнышко с удовольствием растопило дистанцию. В Нью-Йорке в день случаев больше, чем в Италии. Мы явно любим бегать по полю с чужими граблями. Ждем армию и военное положение.

Фото Noam Galai·Getty Images

28 марта

Ныряешь в марево ковидной зоны приемного отделения. До этого заматываешься, как можешь, в защитное барахло. Огромные фильтры ревут, гоняя воздух. Я полный профан в технике, но когда что-то так ревет, сомнительно, что оно качественно выполняет свою функцию. Дышу очень неглубоко, но сразу хочется зевать. Пациенту 74, диабет, ожирение, давление, астма. Курильщик. Насыщение 85, на 100 процентах кислорода сдирает маску, вырывается из рук двух медрезидентов. Когда он срывает маску, насыщение кислородом падает до 70.

Реклама на Forbes

Прибегает интубационная команда. Жалуются, что у них почти не осталась защитного оборудования. Отдаем свое. По плану у них есть все, что требуется для безопасного интубирования. Анестезиолог — отличный мужик. Часто болтали с ним в кафетерии. Полный жизнерадостный итальянец лет 55. Мне становится неуютно. Видно, что его никто не учил пользоваться защитным барахлом. Замечаем порванную перчатку. Анестезиолог матерится, меняет перчатки, снимает маску и очки. Наконец облачается и интубирует. Кажется, он протер глаза. Уходя, он говорит своим бруклинско-итальянским, с интонациями Сопрано: «Эмигрировали в великую страну, э…». Соглашаюсь и иду мыть с хлором свой одноразовый защитный костюм. Хорошо, что возле моего офиса есть небольшой открытый переход между зданиями с чудесным видом на центр Бруклина.

«Черный лебедь» для Кремля: пандемия ударила по рейтингу Путина

Звоню семье пациента сообщить про ухудшение, разговариваю с дочкой, узнаю, что мама тоже с температурой. Советую тестировать, стараюсь делать вид, что все нормально, но она все понимает. Плачет. Обещает подумать об отказе от сердечно-легочной реанимации у папы.

Следующий пациент полегче, но все равно требует вентиляции. Получаем для него разрешение на тоцилизумаб (подкласс иммуноглобулинов), приедет утром. Самое страшное, что многие пациенты в полном сознании. Кто-то молится, пока мы готовим коктейль забвения для интубации.

Есть люди, которые приспособили под накидки мешки для мусора. Мы теперь ничего не выбрасываем. В пакетики из-под накидок кладут телефоны. Тогда не надо его постоянно мыть, можно один раз в конце смены.

В городе статистика заболеваний становится хуже. На улице слишком  хорошая погода, гуляния. Вечеринки на набережных и пляжах. В магазине возле нашего дома обнаружили инфекцию у одного из сотрудников. Магазин закрыт. Люди подходят, толпятся у дверей, читают объявления, судачат.

Реклама на Forbes

В соседнем магазине хоть какое-то исключение из правил. Пускают только десять покупателей единовременно. У кассы отметки на расстояние два метра. Зато неподалеку работает McDonald’s. Только навынос, но он и близлежащая пиццерия заполнены народом.

30 марта

Нас будет двое, один раненый с ковидом и в придачу девушка, которая только начала феллоушип (практику), а скажут, что нас было трое.

Их было 32:  27 с ковидом, 23 на вентиляторах, трое беременных, никто не улучшается. Обычно наша реанимация на тот же состав лечащих врачей заполнена 16-18 пациентами. В тяжелый гриппозный сезон их иногда 22-24. Утренняя пересменка затянулась из-за звонка директора. Хорошо хоть без видео, моя мимика была слишком выразительна. Слышимость была ужасной, так как все были в масках разного калибра, директор перебивал, переспрашивал, иногда терял нить, но в целом почти не мешал. Немного поругался, услышав, что в одном из отделений нашли очень пожилого человека без пульса ночью. Попытки вернуть пульс оказались напрасными. Вечером директор приедет помогать, что реально ценно хотя, видя его в маске набекрень, лезущего на ковидные редуты, мне всегда тревожно.

Как правильно мыть руки, чтобы избежать заражения коронавирусом

По дороге в отделение наблюдал ссору флеботомиста и медсестры из-за пластиковых накидок. Их мало, в основном они не у тех, кому реально нужны. Раздобывшие обладатели не спускают с них глаз. Есть люди, которые приспособили под накидки мешки для мусора. Мы теперь ничего не выбрасываем. В пакетики из-под накидок кладут телефоны. Тогда не надо его постоянно мыть, можно один раз в конце смены.

Реклама на Forbes

Одна из беременных пациенток улучшилась для перевода, а две других дышали сами, так что мы даже приободрились. Как выяснилось, зря, приободряться с ковидом довольно бессмысленно. Ну просто потому, что падать каждый раз больнее. Раздается сигнал тревоги, команда быстрого реагирования в отделение А. Один взгляд — нужно звонить великим интубаторам. Они появляются быстро, но тут же раздается второй сигнал, в отделение тремя этажами выше. Там ситуация такая же, второй команды у нас нет. Интубируем сами, но не успеваем. Остановка сердца, пациентка возвращается на 15 минут и останавливается снова. Это жена пациента, который умер ночью, их дочка в другой больнице, но вроде в относительном порядке. Вспоминаю веселые семейные пикники с толпами народа в чудесном парке, куда выходят окна нашего блока интенсивной терапии. Каждый день прошлой недели с хорошей погодой.

Я работал семь дней подряд и видел, как неплохо организованная больница стремительно падает в неконтролируемом пике. Мы пока еще даже не в середине полета.

Надо ли говорить, что до вечера мы потеряли еще нескольких пациентов. Утренняя ситуация повторилась еще раз и примерно с таким же результатом. Исходы пока все ожидаемые по соотношению возраста, сопутствующих состояний и прочих факторов. Попытка убедить семьи отказываться от реанимации и пожалеть родных и врачей успехом не увенчались. Ограничиваем время реанимации и количество людей в палате. Наверное, это поможет кому-то не заболеть. Но и молодые, и более здоровые пациенты мучаются и довольно плохо улучшаются. Койки для новых пациентов, которых море, освобождаются почти только в одном направлении. Завтра встреча комитета по этике: дискуссии об отказе в праве на сердечно-легочную реанимацию.

Команды снабжения проваливаются — видать, тылы разбомбили. Или разворовали. Нет нескольких необходимых лекарств, почти закончился ингаляционный простациклин, который хоть чуточку помогает при гипоксемии. Устанавливаю рационализацию, у пациентов, шансы которых близки к нулю, просто не начинаем. Когда следующая поставка, неизвестно.

Ученые рассказали, как долго сохраняется коронавирус на разных поверхностях

К вечеру удалось разобрать завалы, перевязать раненых. Поступила даже пара пациентов без ковида (пока?). В нашем основном БИТе на 18 коек сейчас лежит один пациент без него. Молодой чувак, который умудрился где-то подцепить грипп. Полечил он его передозировкой множества субстанций. Среди лекарств была большая дозы снотворных и анксиолитиков, так что проспал он четыре дня. Проснулся бедняга в другом мире.

Реклама на Forbes

Но масштабов этой напасти не представлял никто. Да и сейчас верится с трудом.

Я работал семь дней подряд и видел, как неплохо организованная больница стремительно падает в неконтролируемом пике. Мы пока еще даже не в середине полета. Я восхищаюсь всеми, кто продолжает это делать и приходит сюда каждый день. Если верить администрации, мы готовились месяцами. Но я помню, как поминали всуе особо плохой гриппозный сезон в 2018 -м. Многие больничные шишки выступали на всех телеканалах и не раз. На войне делаются прекрасные карьеры. К счастью, теперь хотя бы в телевизоре никто не заикнулся про грипп.

Фото Spencer Platt·Getty Images

У Довлатова было: «Любое унижение начальства — для меня праздник». Я много пишу о том, что у нас ничего не хватает. И это правда, хотя мы реально готовились. Но масштабов этой напасти не представлял никто. Да и сейчас верится с трудом. Многим в медицинском сообществе представлялось, что все это азиатские дела. Некоторые основания не обращать внимания на паникеров у меня тоже были. Я пережил в Нью-Йорке пару ураганов и эпидемии (ха-ха) Эболы и таинственной Зики, которые впечатлительных горожан ввергали в невроз и панику. Ураганы были настоящие и один из них ударил по городу очень чувствительно. Но все равно размеры паники и невроза в Нью-Йорке чаще не соответствуют реальности угрозы.

Мой ковидоскептицизм продолжался почти до конца февраля. Я смотрел на статистику из Южной Кореи, Китая, теплохода и видел, что да, болячка поопасней гриппа, но поражает много меньше народа. Четкой информации о мерах, принимаемых в Корее и Китае, не было, но на теплоходе особой изоляции в начале не ввели, а заболело не так много. Да и контингент там обычно престарелый и больной. Мне не раз попадались пациенты с этих круизов, и я был впечатлен количеством там медицинских ресурсов. Смертность в стандартном круизе тоже не нулевая.

Кровавый рассвет после пандемии. Почему за кризисом может последовать большой передел собственности

Я понимал, что эти пациенты у нас будут, где-то уже были, но не думал, что их будет столько. Подозреваю, что администрации большинства больниц думали примерно так же. То есть был план добавочных коек, закупок каких-то лекарств и оборудования, сворачивания плановых операций и прочего. Но масштабы этой реальности представить было невозможно.

Реклама на Forbes

Я шучу, употребляю военную лексику, говорю о тылах и снабжении, но это правда. Блок интенсивной терапии — это постоянное сражение против распадающегося из-за болезни организма. Это очень дорогие сражения, требующие большого количества ресурсов. И факт того, что заканчиваются лекарства, не хватает оборудования, к сожалению, не удивителен. Много лет мы жили с количеством критических пациентов икс, которым требовалось ресурсов игрек. Неожиданно икс полетел вверх по экспоненте и догонять его приходится в реальном времени. Это происходит во всех больницах Нью-Йорка. У нас положение даже лучше, есть вентиляторы и ожидаются новые.

Сейчас не самое веселое время, и что-то нужно не только для защиты от вируса, но и от безумия. Поэтому я пишу.

Про лекарство: четко доказанной фармакотерапии нет. Есть надежды на тоцилизумаб, гидроксихлорохин с азитромицином, калетру (комбинированный препарат против ВИЧ). Ни одно из этих лекарств не было проверено в клинических исследованиях пациентов с ковид. Мы даем комбинацию хинина и азитромицина всем пациентам с изменениями в легких. У моих пациентов, тяжелых, требующих искусственной вентиляции или высокой кислородной поддержки, я чудес не заметил. Так как мы даем всем, то нельзя сказать, что было бы без лекарств. Возможно, и я очень на это надеюсь, у пациентов с менее тяжелым течением, эта комбинация предотвращает переход в совсем тяжелое. И это лучшее, на что можно сейчас надеяться. ОРДС — тяжелейшее расстройство функции легких, которое сложно лечится при любом раскладе. Механизм, запустивший этот синдром, зачастую не так важен. Когда пациентов с этим синдромом единицы, мы можем использовать высокотехнологичные виды терапии, что-то пробовать, подходящее по патофизиологическим критериям. Когда таких пациентов десятки — речь об этом уже не идет. У всех этих пациентов к легким приделано остальное тело, на которое также влияет вирус, само по себе критическое заболевание. Поэтому рассчитывать на чудесные излечения не приходится. Любой успех — огромный труд множества людей и не только врачей.

Когда закончится этот кошмар и мы поедем в Париж?

Самое страшное, что я мог представить в своей жизни, — недостаток аппаратов ИВЛ. Отказывать задыхающимся людям в кислороде не хочет никто. Повторяю, пока они есть, их срочно делают, их собирают с миру по нитке. Разговоры о вентиляции двух, трех и больше пациентов идут не от хорошей жизни. У двух здоровых людей одного возраста, размера и пола примерно одинаковая функция легких. У пациентов с поражением легких это не так. Точно оценить уровень поражения невозможно. Так что мы к этому готовимся, но надеемся, что не доведется.

Фото Tayfun Coskun·Anadolu Agency via Getty Images

31 марта

После «кровавого воскресенья», мы смогли как-то вернуться в новую норму. Реанимационных коек осталось совсем мало, идут разговоры о переоборудовании пространств под ковидные блоки интенсивной терапии, как в Италии. Несколько успехов у молодых пациентов, добыли очередную дозу ремдесивира, ждем доставки сегодня. Теперь его дают только для детей и беременных, так как слишком много запросов. Надежды на него какие-то немыслимые, а мы даже не знаем, действительно ли он работает. Результаты исследования в конце апреля. Несколько опытов с тоцилизумабом, смотрим, ждем. Витамин С вернулся на арену.

Реклама на Forbes

Первые успехи: физиотерапия и прогулка пока по комнате у молодой женщины, снятой с ИВЛ. После этого день уже не выглядит таким страшным. Некоторые пациенты соглашаются лежать на животе. Это помогает — как минимум задерживает необходимость вентиляции.

Немного про этот вирус. Я не очень впечатлительный, я стажировался в ожоговом отделении, работал в больнице с высоким уровнем травмы. Туда везли огнестрелы, ножевые, автокатастрофы. Ими, конечно, занимались больше хирурги, но мы иногда помогали процедурами, не слишком благосклонно принимаемыми советами, койками, наконец, при массовых травмах.

Разделение на будни и выходные потеряло смысл. Мы приходим каждый день, бреемся из тазика с растопленным снегом, надеваем бывшее в употреблении защитное оборудование и продолжаем.

Мой друг Дэвид как-то сказал, что реанимация — это «терапия на кокаине».  Реанимация при коронавирусе — «терапия на кокаине и стероидах». Тяжелое течение у пациента с ковидом, как река с порогами высокой сложности. Только мы, врачи, даже без байдарок — в плане работающей проверенной терапии. Настройками вентилятора, которые нужны для этих пациентов, дабы удержать кислород на достойном уровне, я пользовался считанные разы почти за 10 лет работы в реанимациях. Вирус прямо или за счет иммунного ответа может поражать почти все органы. При этом большинство пациентов в полном сознании и их очень сложно заставить спать. Заставить спать не потому, что это удобно врачам или медсестрам, а потому что, если они не спят, терпеть такую вентиляцию страшно неприятно, и пациенты начинают с ней бороться, иногда выдергивают трубки и катетеры, которые приходится возвращать на место экстренно и с риском для персонала. Первыми у нас заканчиваются капельницы с седативами, пациенты просыпаются, борются с вентилятором. Фармакологи придумывают схемы, способные хоть как-то продлить действие лекарств. Пользуемся почечной недостаточностью. Раньше это было причиной не давать определенные седативные препараты, так как удлинялся период действия. Теперь это плюс. Выведение пациентов с вентиляции также набивает массу шишек, а каждая ошибка и необходимость возврата — риск для многих.

Выключить панику и не бухать: советы по выживанию в кризис от сооснователя банка «Точка» Бориса Дьяконова

2 апреля

Поездка по пустому утреннему городу очень помогает. Я знаю, что живу в лучшем городе на земле. К сожалению, здесь все большое. Даже микроорганизм. Верю, что город вернется таким же, как прежде, но с большим уважением к чужому пространству.

Реклама на Forbes

Если это продлится долго, мы получим целое поколение врачей с атрофией областей мозга, отвечающих за эмпатию. Думаем о какой-то системе психологической поддержки.

Я не знаю, что еще писать. Мы вошли в новую рутину. Пациентов много, мы жонглируем ими, любое улучшение встречается аплодисментами. Удалось не интубировать в тяжелый седьмой-восьмой день — праздник. Выздоравливает коллега дома или в больнице — торжество. Поводов для огорчений, к сожалению, больше. Лекарства продолжают улетать, седативы, вазопрессоры. Никакого четкого ощущения, что что-то работает фармакологически, пока нет. Мне кажется, отчеты китайских товарищей верны. В реанимации большинству пациентов будет плохо. Будем бороться за молодых и здоровых и стараться не доводить до ИВЛ, если сможем.

Рутина — это хорошо. В будние дни нас много, работать легче. Разделение на будни и выходные потеряло смысл. Мы приходим каждый день, бреемся из тазика с растопленным снегом, надеваем бывшее в употреблении защитное оборудование и продолжаем. Мы все еще не отказываем ни в чем, но все больше и больше семей понимает, что при этой болезни многое бесполезно.

Карантин точно работает. Даже наш нью-йоркский. Новая рутина — 4-5 новых пациентов на ИВЛ в день — сохраняется. Если мы удержимся на этом уровне, мы сможем справиться. Главное, чтобы хватило вентиляторов.

Еще немного о страшном. Я проходил резидентуру в небольшой больнице, смертность там была редкостью. 3-4 человека в неделю на триста коек. Большинство этих смертей были очень пожилыми людьми, которым пришла пора уходить. Я помню, как мой старший руководитель плакал вместе с дочерью умершей ночью пациентки. Я понял, что это нормально. Что меня пугает сегодня: смерть пациентов стала обыденностью. Нынешние врачи даже не понимают, что может быть иначе. Если это продлится долго, мы получим целое поколение врачей с атрофией областей мозга, отвечающих за эмпатию. Думаем о какой-то системе психологической поддержки.

«В России должны погибнуть 1,5 млн, чтобы выработать популяционный иммунитет»: когда создадут лекарство от коронавируса?

Но все-таки что-то хорошее есть. Этот кошмар не закончился или закончится не сразу, но мы не видим повышения количества тяжелых пациентов с понедельника. Надеюсь, что у других так же. Карантин точно работает. Даже наш нью-йоркский. Новая рутина — 4-5 новых пациентов на ИВЛ в день — сохраняется. Если мы удержимся на этом уровне, мы сможем справиться. Главное, чтобы хватило вентиляторов.

Реклама на Forbes

Интересно, как за три недели после появления этой напасти, все превратилось в рутину. Первая наша тяжелая пациентка поступила 7 марта. Комната с лучшей изоляцией,  летучие консилиумы на тему стратегии вентилирования, фармакотерапии. Через неделю мы в первый раз достигли отметки в половину основного БИТа со светофором видов изоляции на дверях. Еще за неделю количество интенсивных коек увеличилось в два раза, единицы не изолированы из-за вируса и все они на ИВЛ.

Наконец, появились хорошие новости, несколько пациентов показали параметры, соответствующие выводу с ИВЛ. Наконец, с помощью частных доноров и больничных закупок хватает защиты. Пришла партия вентиляторов.

Заканчивается рабочий двенадцатидневный ковидный марафон. В его первый день пациентами с ковидом у нас было заполнена половина основного БИТа на 18 коек. Сейчас у нас около сорока этих пациентов и два с половиной БИТа. Думаем, куда расширяться. Успехов немного, но они есть. Несколько пациентов могут сойти с вентиляции, еще нескольких удалось провести через очень плохие дни, и они улучшаются. Важно, что это относительно молодые и здоровые пациенты. Те, кого очень хочется вытащить.

Мы пока перепробовали все возможные терапии с переменным успехом. Основное разочарование — комбинация гидроксихлорохина с азитромицином. Самая большая надежда — рамдесивир. Все остальное где-то посередине. Нужно больше времени, чтобы понять, а его у нас особо немного.

P.S. Не знаю, что еще писать. Пока это все страшно и уныло. На пике мы или карабкаемся — есть варианты. Но вылезем мы из этого, к сожалению, не скоро.

Реклама на Forbes

Фото Misha Friedman·Getty Images

#Баллада о солдате / Морская душа — Подкаст журнала Школа.Москва

«Я никогда ни перед кем не заискивал и не искал протекций. Всё, чего я добился в своей жизни,  это заслужено честным и упорным трудом во имя блага и процветания России».

«Трудно выделить какой-то период в своей службе. Все они одинаково значимы. По-своему памятны героикой, острыми ситуациями, предельным напряжением огненные годы войны, когда, к примеру, руководил десантом в районе Григорьевки, что под Одессой. Затем, в последующие месяцы, когда, приняв командование Азовской военной флотилией, руководил ее действиями при яростном натиске врага. А разве можно забыть битву не на жизнь, а на смерть под Новороссийском, завершающие бои на Дунае, когда мы тесно взаимодействовали с сухопутными частями? А какое воодушевление владело нами, черноморцами, когда после войны мы приступили к восстановлению кораблей и баз Черноморского флота!..»

Адмирал Флота Советского Союза С. Г. Горшков

Стояла осень 1942 года. Шли ожесточенные бои за Новороссийск. В штабе фактического командующего Новороссийского оборонительного района контр-адмирала Сергея Георгиевича Горшкова раздался телефонный звонок. В трубке послышался характерный, с кавказским акцентом, голос: «Здравствуйте, товарищ Горшков. Говорит Сталин. У нас в Ставке есть такое мнение — назначить вас командующим 47-й армией. В случае вашего согласия придется распрощаться с флотом — вам будет присвоено звание генерал-лейтенанта. Как вы смотрите на это?» «Я, — вспоминал Сергей Георгиевич, — ответил не сразу. Решался важный вопрос в моей жизни — быть мне в армии или на флоте. В то короткое мгновение в моем сознании промелькнула как бы вся моя служба, дорогие мне корабли, друзья. Море, флот были моим призванием, и менять их для меня было просто немыслимым. И я, поблагодарив за доверие, попросил Иосифа Виссарионовича оставить меня на флоте». Помолчав, И. В. Сталин ответил: «Ну что ж, я вас понимаю. Осуждать вашу привязанность к флоту не могу». И повесил трубку.

Путь Сергея Георгиевича Горшкова во флотскую жизнь не был простым. Можно даже сказать, что это была случайность, если не судьба. Сергей Горшков родился в 1910 году в городке Каменец-Подольском на Украине. Отец будущего флотского командира — Георгий Михайлович — происходил из крестьян, но своими умом и талантом выбился в интеллигенты, стал известным педагогом-математиком. Мать — Елена Феодосиевна — была из семьи священника и работала преподавателем русского языка. Супруги не были похожи характерами. Георгий Михайлович — властный, строгий, считавший, что культура должна основываться на запретах, и Елена Феодосиевна — мягкая, добрая, ласковая. Наверное, они были вместе, потому что прекрасно дополняли друг друга. Их сын Сережа родился в «чепчике» и «рубашке», так что повитуха сразу сказала, что новорожденный будет очень удачлив. Было ли это действительно зна́ком или нет — кто знает? Но в жизни С. Г. Горшкову, безусловно, очень везло, успех сопутствовал ему во всём. Во время войны морские пехотинцы даже говорили: «Там, где Горшков, там — победа».

Через два года Горшковы перебрались в Коломну, где Георгий Михайлович получил должность инспектора народных училищ. Революцию 1917 года он принял как неизбежный поворот судьбы, а вскоре стал и убежденным сторонником новой власти, поскольку идеи равенства, братства и свободы всегда были ему близки как крестьянскому сыну. Его сын Сергей пошел в школу уже при большевиках. «Учился он охотно, — вспоминала одна из его сестер, — но был непоседой, озорником, за что при участии дворника нередко удалялся из класса. Свободное время проводил на реке. Очень любил лошадей. С ватагой ребят они скакали на них наперегонки по лугам. Однажды за лазание по чужим огородам был посажен отцом в погреб. Но, в общем, детским его забавам родители не препятствовали — лишь бы свои обязанности по дому не забывал». Отец рано приохотил Сергея к точным наукам, развил в нем склонность к анализу. Из школьных предметов подросток больше всего любил математику и физику. Часами просиживал над сложными формулами, и отец тешил себя надеждой, что сын пойдет по его стопам. Действительно, в 1926 году Сергей решил поступать на физико-математический факультет Ленинградского университета.

Но судьба распорядилась иначе. Вот как сам Сергей Георгиевич вспоминал о повороте в своей жизни: «На каникулы к родителям в Коломну приехал курсант военно-морского училища Неон Антонов, с которым я дружил с малых лет. Мы встретились с ним в родном городе, обнялись, а потом, гуляя, разговорились. Я не спускал с него глаз. Всё в его поступках, движениях, словах было исполнено необыкновенной лихости, морского шика и смелости. Он подробно рассказывал мне о службе на флоте, о море, кораблях. Я тогда по неопытности не мог отличить, разобрать в его рассказах, где правда, а где небылицы. Но как бы там ни было, мне глубоко в душу запали картины дальних плаваний, утренних зорь и вечерних закатов, необъятной морской шири. Друг раскрыл передо мной особую атмосферу жизни экипажа, которая зовется флотской спайкой. Я дотошно расспрашивал его о программе учебы, о порядке в училище и скоро понял, что военное училище открывает широкие возможности для учебы, проявления способностей. На мое решение о переходе в военно-морское училище повлияло и развернувшееся в стране движение — шефство комсомола над флотом, и многие из нас считали своим долгом идти в моряки. Так в моей судьбе совершилось событие, которое изменило мои жизненные планы. Я предпочел университету военно-морскую службу, о чем потом никогда не сожалел».

Разговор с родителем предстоял непростой. «Отец, узнав о моем решении, — вспоминал будущий адмирал, — изменился в лице. Такой шаг, по его мнению, был несерьезен и непродуман. Ему был ясен мой путь после университета, но он совсем смутно представлял себе жизнь моряка. Отец склонен был считать, что военная служба — удел особых людей, что она подходит не для каждого и мало оставляет места для научной деятельности. Ему, учителю, стремившемуся развивать в учениках интерес и любовь к наукам, было странным узнать, что сын, проявивший в школе математические способности, отказался от перспективы научного труда. Отец не сразу согласился с моим желанием, с моими доводами об увлекательной, полной романтики службе. Я доказывал ему, как мог, что на флоте сплошь и рядом сложная техника, которая требует высокого уровня знаний. Отец не соглашался со мной, но, в конце концов, решил: “Коль тебя влечет море, флот, поступай в училище, но еще раз подумай. Все-таки военная служба не для тебя”».

В октябре 1927 года 17-летний Сергей Горшков был зачислен в Военно-морское училище имени М. В. Фрунзе, которое находилось в Ленинграде, на набережной Лейтенанта Шмидта. Как пишет биограф адмирала М. С. Монаков, «Горшков-старший, похоже, не задумывался о том, что методы, которые он применял для воспитания сына, лучше всего подходили для выработки именно тех качеств, которые выше всего ценились именно на военной службе. Военную дисциплину, напряженную учебу, большие физические нагрузки, до предела насыщенный распорядок дня, в котором не оставалось места для созерцательной праздности, на первых порах многие из сокурсников Сергея переносили с трудом, а он после суровой отцовской школы — принимал как должное».

Учился молодой моряк отлично. Он изучал математику, физику, химию, иностранный язык, морское дело, устройство корабля, астрономию, мореходные инструменты, артиллерию, минное дело, военно-морскую историю и тактику. Но больше всего ему нравились кораблевождение и морская практика. В изучении этих дисциплин Сергей всё свободное время просиживал в библиотеке училища. Надо сказать, что С. Г. Горшков очень любил художественную литературу. Но время учебы — единственный период в его жизни, когда он почти не читал изящной словесности. Все силы он отдавал овладению будущей профессией. Он быстро «заболел» морем. «Мое восхищение морем, — писал Сергей Георгиевич спустя полвека, — и сегодня остается в груди огнем глубокого горения. Могучая его стихия способна всколыхнуть глубину внутреннего мира даже у самых, казалось бы, невозмутимых, уравновешенных людей. Если ты не ощущаешь настроение моря, не воспринимаешь его живописность, если в тебе не развиты способность наслаждаться игрою волн, красками света в водяной пучине, любоваться волшебством возникающих на горизонте островов, фантастичностью закатов, грозной поступью штормов, — ты не годишься для флота; равнодушие, инертность, душевная спячка сломят тебя».

В феврале 1931 года учеба была успешно завершена, и Сергей Горшков стал офицером РККФ (Рабоче-Крестьянского Красного флота – прим. ред.). По выходе из училища он начал службу штурманом, сначала на Черноморском, а потом на Дальневосточном флоте. Спустя три года он был уже командиром сторожевого корабля, а с 1938 года — бригады эсминцев. В этом качестве он принял участие в советско-японском конфликте у озера Хасан: обеспечивал воинские перевозки.

С мая 1939-го С. Г. Горшков снова оказался на Черном море. Здесь его назначили командиром бригады крейсеров и присвоили звание капитана первого ранга. В Севастополе он встретил начало войны с Германией. Говоря об этом событии, нельзя не отметить тот факт, что черноморские силы СССР благодаря расторопности командующего РККФ Н. Г. Кузнецова оказались единственными боевыми соединениями нашей армии, которые встретили противника во всеоружии. Уже утром 22 июня 1941 года они успешно отразили налеты вражеской авиации и приступили к минированию фарватеров. Тем временем события для Советского Союза развивались не лучшим образом. 13 августа 1941 года враг отрезал Приморскую армию, которая обороняла Одессу, от войск Южного фронта. Через неделю немцы достигли промежуточного рубежа обороны города. Начались упорные бои, продолжавшиеся месяц. Вспоминая об участии бригады крейсеров в обороне Одессы, Сергей Георгиевич писал: «Ее героические защитники всё получали морем — и пополнение людьми, и боеприпасы, и продовольствие. Доставкой занимались не только транспортные суда, но и боевые корабли. Но главной задачей крейсеров и эсминцев являлась огневая поддержка войск, сражавшихся за город». Вскоре в Ставке было принято решение о необходимости заброски под Одессу (в район Григорьевки) десанта.

Общее руководство операцией было поручено контр-адмиралу Л. А. Владимирскому, а С. Г. Горшкова назначили командиром высадки. Штаб эскадры незамедлительно занялся расчетами и подготовкой плана необходимых действий. Все трудились без отдыха, день и ночь, ведь времени было отпущено очень мало. В те годы еще не существовало формирований морских пехотинцев в том виде, в котором они существуют сейчас. Бригады десантников комплектовались матросами, списанными на берег. Они не были обучены правилам десантирования и ведения боя на суше в экстремальных условиях. Командовали ими, как правило, пехотные офицеры, которые морского дела и вовсе не знали. Официальные выводы по итогам тренировки одесского десанта, проведенной 15-16 сентября 1941 года, говорят сами за себя: «Личный состав десанта совершенно не подготовлен к выполнению такой операции: боязнь моря, медленное хождение по трапу, незнание корабельной организации сухопутными командирами». «Не обошлось и без курьезов, — вспоминал С. Г. Горшков, — во время тренировок мы репетировали высадку краснофлотцев в воду еще до подхода к берегу. Ведь при высадке наверняка такой вариант возможен. И что же оказалось: кое-кто из краснофлотцев, высадившись на глубокое место, начинал барахтаться и тонуть. Пришлось вытаскивать их на берег. Прерываю учение, спрашиваю командира полка и батальонного комиссара, почему берут в десант людей, не способных держаться на воде. Как выясняется, беседовали с каждым, все заверяли, что умеют плавать. Собираю пострадавших. На их лицах уныние и растерянность. Стыдятся, конечно, что, прослужив на флоте, плавать не научились. Но больше всего боятся, что теперь их не возьмут в бой. Пришлось растолковывать: “Еще вволю навоюетесь. А в десант вам идти не стоит, можете погибнуть понапрасну, ни разу не выстрелив по врагу”. Отчислили человек тридцать. Наконец, подготовка завершена. 21 сентября крейсера и эсминцы приняли на борт морских пехотинцев. Все посерьезнели, не слышно шуток, как было на тренировках, понимают: впереди — испытание боем. Проходя по палубе, вижу, как бойцы вытряхивают из вещевых мешков продукты и вместо них укладывают под самую завязку патроны и гранаты. Пожилой старшина поясняет: “Харчи мы и на берегу достанем, а вот патронов тебе никто не поднесет”».

Вышли в море, когда уже стемнело. Корабли с десантом прибыли к точке встречи с транспортными судами. Но там никого не оказалось. В это время на мостик вбежал бледный радист с радиограммой в руке: эсминец «Фрунзе», на котором находился командующий операцией Л. А. Владимирский, был атакован авиацией противника и затонул. Контр-адмирал тяжело ранен. Командующий флотом приказывает С. Г. Горшкову взять всё руководство на себя. Сергей Георгиевич вспоминал: «Как же поступить? Ведь высадочных средств нет, нужно ли ожидать их? А если гитлеровцы нас обнаружат до начала высадки? До берега противника так близко! Нет, дальше медлить нельзя. Наверное, произошло что-то непредвиденное… Принимаю решение: продолжить движение и высадку десанта провести корабельными средствами. Хорошо, что при подготовке операции предусмотрительно учли и такой вариант, взяв с собой на палубы дополнительные моторные баркасы и шлюпки с других кораблей эскадры. Как они теперь пригодятся!.. Отдаю распоряжение: “Плавсредства на воду! Начать посадку!” И как только первая волна баркасов и шлюпок с десантом отвалила от кораблей, приказываю открыть огонь. Тридцать два орудия ударили почти одновременно. Вражеские окопы озарились вспышками разрывов. Снаряды перепахивают их, взлетает красная от пламени земля. А к берегу идут волна за волной баркасы, корабельные разъездные катера, превращенные в буксиры, за каждым из которых тянется вереница шлюпок. Наконец, сквозь гром орудий доносится многоголосое “Ура!”: морские пехотинцы высадились на берег». Враг был застигнут врасплох, но, несмотря на это, оказал упорное сопротивление. Отчаянная рукопашная схватка морских пехотинцев под командованием старшего лейтенанта И. Ф. Матвиенко, трижды раненого, но не оставившего своих бойцов у Старой Дофиновки, длилась шестнадцать часов. Пять часов сражались за Новую Дофиновку моряки первого батальона морской пехоты под командованием капитана Б. П. Михайлова, который бился до тех пор, пока не потерял сознание. Целый день шел ожесточенный бой на берегу. И только к шести часам вечера десант соединился с наступавшими из Одессы пехотными частями. Но задача была выполнена: врага отбросили на десять километров, так что он лишился плацдарма, с которого мог обстреливать Одесский порт. Именно здесь, под Одессой, немцы окрестили морских пехотинцев «черной смертью» или «черной тучей». А Сергей Георгиевич Горшков за успешные действия был произведен в контр-адмиралы.

Спустя месяц С. Г. Горшкова назначили командующим Азовской военной флотилией. Время было очень сложным: немцы захватили Мариуполь, шли бои за Таганрог. «Ознакомившись с обстановкой, — вспоминал адмирал, — решил посмотреть корабли флотилии. Еще в штабе я узнал, какие силы входили в ее состав, но то, что я увидел, превзошло все мои ожидания. У пирса стояло несколько катеров МО — малых охотников за подводными лодками. Чуть поодаль — сформированные уже в ходе войны вчерашние гражданские суда, спешно переоборудованные на местных заводах. На одно такое судно мы поднялись. Это была грунтоотвозная шаланда, которая до войны обслуживала землечерпалку. Сейчас она была превращена в канонерскую лодку: на ней настелили палубу, установили пушки. Эти так называемые канонерские лодки и были основной силой флотилии. Шагаем дальше: перед нами вооруженные пушками речные колесные пароходы. Буксиры и рыболовные сейнеры с малокалиберными орудиями, пулеметами и тралами назывались тральщиками и сторожевиками. Тут же приткнулись к причалу байды, разъездные катера. Я молча осматривал все эти суда, и настроение у меня всё больше портилось. Представьте мое положение: до этого я многие годы проходил службу на мощных боевых кораблях, готовился к крупным сражениям на море… Теперь же мне предстояло командовать флотилией, которая состояла в основном из мобилизованных гражданских судов, слабо вооруженных и недостаточно приспособленных для выполнения предстоящих боевых задач».

Но как-то надо было воевать. Угроза уже нависла над Ростовом-на-Дону, и Сергей Георгиевич принял решение скоординировать свои действия с 56-й армией генерал-лейтенанта Ф. Н. Ремезова, которая обороняла город. 19 ноября 1941 года адмирал выезжает в штаб армии. Последуем за его рассказом.

«В беседе о возможности совместных действий я спросил, чем может помочь флотилия армии, познакомил с нашими силами: они у нас были, правда, невесть какие, но всё же для войск, измотанных в боях с непрерывно атакующим противником, это была поддержка. Командующий армией смотрел на меня свысока, он скептически отнесся к предложению о тесном взаимодействии. Я старался убедить его в необходимости такого содружества, приводил примеры из опыта обороны Одессы. Но, кажется, мои слова до него не дошли. Наконец, мы сели за карту, стали намечать, куда подтянуть корабли, где разместить морскую пехоту. Но, видимо, с этим делом запоздали — наш разговор прервал работник штаба. Взволнованным голосом он доложил: “На соседней улице немецкие танки!” Генерал изменился в лице, подталкивая меня к двери, крикнул: “Скорее приводите свои корабли!” Бегу к машине. Набережная Дона и мост через реку уже под обстрелом. Андрей Захаров, шофер моей машины, притормаживает, оглядывается на меня. Приказываю ему: “Гони!” Машина трясется по булыжнику. Низко пригибаем головы. Пули пронизывают кузов. Постепенно отзвуки выстрелов остались позади: проскочили… И вскоре мы уже в Азове. Вернувшись в Азов, мы первым делом направились на причал. Здесь, готовые к походу, дымили корабли. На колесной канонерской лодке “Днестр” меня встретил капитан второго ранга Ф. П. Шиповников, командир дивизиона. Жестом прерываю его доклад и приказываю: “Кораблям немедля отдать швартовы! Курс — на Ростов!” Корабли спешат форсированным ходом. В Ростове уже стрельба. Идут уличные бои. Наши войска отходят. Канонерские лодки занимают позиции у Ростовского моста и открывают огонь по танкам и пехоте противника, пытающегося овладеть единственным мостом через реку. А морская пехота уже высадилась на левый берег Дона, откуда отошли части 56-й армии. Они стойко защищали мост, захват которого открыл бы гитлеровцам дорогу для вторжения на Кубань и далее на Северный Кавказ. Два дня продолжались бои за город, но удержать его так и не удалось — 21 ноября войска 56-й армии оставили Ростов. А корабли вернулись в Азов». Тем не менее войска советского Южного фронта вскоре перешли в контрнаступление. Ростов был освобожден. Встал вопрос о проведении десантной операции на Керченском полуострове, целью которой должна была стать деблокада Севастополя. Перевозку десанта должна была обеспечить Азовская флотилия.

Задача была очень сложной: у С. Г. Горшкова не было кораблей, которые хотя бы с натяжкой можно было бы отнести к классу десантных. Стоял декабрь, на море установился сезон штормов. Береговая оборона противника не была разведана. Однако делать нечего, надо выполнять приказ. Первоначально для десантирования выделили 398-ю стрелковую дивизию. Но после учений стало очевидно, что поставленную задачу она выполнить не сможет. Части дивизии были укомплектованы призывниками запаса второй очереди, совершенно необученными и не имевшими боевого опыта. 80 % личного состава составляли кавказцы, не знающие русского языка и на все команды отвечавшие: «Моя нэ понимает». Многие бойцы страдали водобоязнью. Имелся недостаток в вооружении и недокомплект в командирском составе. По требованию С. Г. Горшкова 398-ю дивизию заменили на 224-ю. Правда, она тоже никогда не высаживалась в составе морского десанта, но всё же имела боевой опыт. Вся эта неразбериха привела к тому, что у бойцов совершенно не осталось времени на подготовку к предстоящим действиям. Операцию назначили на пять часов утра 26 декабря 1941 года. «Посадку десанта начали утром 25 декабря, — вспоминал Сергей Георгиевич, — погода портилась на глазах. Морозный ветер набирал силу. Волны разламывали лед у берега и бросали со страшной силой, грозя проломить борта судов. Страшно было смотреть на заполненные людьми баржи, байды, баркасы. Волны заливали низко осевшие посудины, съежившиеся от холода люди не успевали котелками вычерпывать воду… Низкая температура, штормовой ветер действовали угнетающе на личный состав десантируемых частей. Кроме того, они приводили к обледенению корпусов и механизмов кораблей, а на тральщиках — к обледенению и выходу из строя пушек. События развивались в условиях, более свойственных морям сурового севера. Время от времени свирепствовала пурга, корабли и суда преодолевали лед, некоторые из них приходилось спасать из ледового плена с помощью ледокола. В годы войны мне неоднократно приходилось принимать участие в десантах… но десант на Керченский полуостров зимой 1941 года остался в моей памяти как самый трудный и самый трагический».

Когда вышли в море, суда из-за семибалльного шторма начали терять скорость. Шедшие на буксире сейнеры и лодки отрывались. Их захлестывало волнами и переворачивало. Спасти смогли далеко не всех. Внезапности атаки достичь тоже не удалось: противник был настороже. Десантники, выходившие на берег по воде, покрывались ледяной коркой, шинели превращались в кол, оружие отказывало. Раздавались крики командиров: «Вперед! Вперед! Обогреетесь в немецких блиндажах!» Завязавшийся бой почти сразу превратился в рукопашный. Он длился несколько часов: дрались штыками, кинжалами, саперными лопатками. В результате немцы дрогнули, начали отступать. 31 декабря 1941 года Керчь была освобождена. Правда, уже в мае 1942 года противник снова перешел в наступление: и Керчь, и Ростов пришлось оставить. Началась битва за Кавказ.

Летом 1942 года Азовской флотилии было поручено оборонять северо-восточное побережье Черного моря на участке Анапа — Новороссийск. «Прибыв в Новороссийск, — рассказывал адмирал, — я первым делом отправился знакомиться с его обороной. Вместе с командованием базы мы объезжали окраины и далекие подступы к нему. Чем дольше мы знакомились, тем труднее мне было скрыть плохое настроение. Мы обнаружили ряд существенных пробелов в обороне. Строительство береговых батарей и оборонительных сооружений вокруг Новороссийска и на побережье велось медленно. В сухопутной обороне отсутствовали рубежи и силы для их занятия. Защита самого города не была продумана. Я высказал тогда командованию военно-морской базы, в частности, командиру базы капитану первого ранга Г. Н. Холостякову, ряд серьезных претензий, сослался на опыт обороны Одессы и Севастополя. Я тогда прямо спросил его, почему командование базы так халатно отнеслось к подготовке Новороссийска к обороне. Меня удивил ответ Холостякова: “Мы сигнализировали в штаб фронта о недостатке сил для создания рубежей обороны, но нам ничем не помогли”. Я, помню, вскипел: “А вы что же — ждали у моря погоды?” “Мое дело — оборонять базу со стороны моря, а со стороны суши — дело армии”. Я высказал серьезные упреки Холостякову. Вспомнил энергичные меры командира Одесского оборонительного района контр-адмирала Г. В. Жукова и поразился беспечности отдельных начальников на столь важном операционном направлении. Дорогой ценой обернулись для нас эти просчеты».

20 августа по предложению С. Г. Горшкова был создан Новороссийский оборонительный район (НОР), куда были стянуты все имеющиеся на данном стратегическом участке силы и средства. Командующим НОР назначили генерал-майора Г. П. Котова, а его замом по морской части — нашего героя. Однако вскоре выяснилось, что командующий этим участком обороны советско-германского фронта не справляется со своими обязанностями. И тогда Сергей Георгиевич фактически возглавил оборону города, от участи которого в значительной степени зависела судьба Черноморского флота и всей битвы за Кавказ. Сражение за Новороссийск, которое некоторые историки называют «кавказским Сталинградом», началось 19 августа 1942-го. Немецко-румынские войска превосходили по численности наши части втрое и постоянно получали подкрепления, переправлявшиеся из Крыма на Таманский полуостров. Помешать форсированию Керченского пролива советское командование оказалось не в силах. Посланные на перехват противника торпедные катера не нашли цели, а авиация бездействовала из-за плохой погоды. Вечером 5 сентября враг вышел на западные окраины Новороссийска. Шли тяжелые бои. По словам С. Г. Горшкова, «6 сентября фашистские танки и пехота появились в городе. Утром следующего дня началась атака позиций черноморцев. Гитлеровцы наседали. В это время раздался боевой клич: “Полундра!” Его бросил капитан-лейтенант П. И. Желудько. Этот клич подхватили сотни моряков. В одних тельняшках они рванулись навстречу врагу. Началась ожесточенная рукопашная схватка. Нервы фашистов не выдержали — они побежали, оставляя на поле боя убитых и раненых. Морские пехотинцы атаковали исключительно дерзко. Они стремительно врывались в боевые порядки врага, доводя сражение до рукопашных схваток, дрались только с присущей морякам лихостью… 8 сентября вражеские части прорвались в район моего командного пункта. Здесь разгорелись жаркие бои. Создалась критическая обстановка. КП был окружен. В его обороне участвовали и отошедшие подразделения морской пехоты, и весь личный состав командного пункта. Бои у КП продолжались почти два дня. Неизвестно, чем бы они закончились, если бы не подоспевшая помощь, оказанная генерал-майором А. А. Гречко… Не имея несколько дней связи со мной, он распорядился направить на катерах через Цемесскую бухту отряд морской пехоты, который атаковал окружившие КП части гитлеровцев». В ночь на 10 сентября основные силы оборонительного района отошли на восточную окраину города. Дальше противнику продвинуться не удалось. Теперь на этом месте стоит памятник: изрешеченный пулями и осколками товарный вагон с надписью: «Здесь 11 сентября 1942 года доблестные воины частей Советской Армии и Черноморского флота преградили врагу путь на Кавказ». Тут, на юго-восточной окраине Новороссийска, враг был остановлен, и отсюда же в январе 1943 года началась Кавказская наступательная операция.

В 1943 году фронт стал откатываться на запад. Противник был разгромлен под Сталинградом и на Курской дуге. Пришел черед освобождения Крыма. Началом освобождения полуострова должна была стать высадка морского десанта под Керчью. Первоначально форсирование Керченского пролива было назначено на 28 октября 1943 года. Однако сроки дважды менялись из-за плохой погоды. И вот 2 ноября операция началась.

«Вечером 2 ноября, — вспоминал Сергей Георгиевич, — я с болью в сердце наблюдал за тем, как швыряло на крутой волне маленькие суденышки, предназначенные для высадки войск. И не раз задавал себе вопрос: как-то они справятся с доставкой войск на Керченский полуостров? Тяжело нагруженные корабли и суда отошли от причала и взяли курс к берегам, занятым противником. Никогда, кажется, за все время войны я не испытывал такой тревоги за исход операции, как тогда. Я ждал с нетерпением известий, как пройдет высадка. Крутая волна, свежий северо-восточный ветер затрудняли движение кораблей». Первоначально десантники южного отряда добились успеха: к 10 ноября они с боями вышли к восточной окраине Керчи. Но потом противник, оказывая жесткое сопротивление, блокировал их на Эльтигенском плацдарме. Было принято решение об эвакуации десанта. 10 декабря корабли Азовской флотилии вывезли с полуострова 1 100 бойцов, всё, что осталось от пятитысячного десанта, высадившегося на крымской земле месяц назад. Северная группа моряков продолжала ожесточенно биться за Керчь. В заключительной фазе Керченско-Эльтигенской операции, которая всё же завершилась захватом нашими войсками Керченского плацдарма, сыгравшего важную роль в освобождении Крыма в 1944 году, С. Г. Горшков не участвовал. В конце декабря 1943-го он получил тяжелую контузию. Его автомобиль подорвался на немецкой мине. Контр-адмирал пробил головой лобовое стекло и, упав на землю, каким-то чудом не был раздавлен насмерть упавшей сверху машиной. «Всем пассажирам машины, — пишет М. С. Монаков, — так крупно повезло потому, что, не желая привлекать внимание немецких летчиков к предстоящей рекогносцировке, Горшков решил ехать не в приметном черном ЗИСе, а в армейском “виллисе”. В закрытом кузове шансов выжить при взрыве было бы намного меньше».

Больше командовать Азовской флотилией адмиралу не пришлось: 13 апреля 1944 года она была расформирована (фронт ушел далеко на запад от Азовского моря). Все ее штаты были брошены на комплектование нового боевого соединения — Дунайской флотилии. И С. Г. Горшков стал ее командующим. В августе 1944 года флотилия приняла участие в разгроме ясско-кишиневской группировки противника, отрезав врагу пути отхода за Прут и Дунай. Перед моряками открылись речные просторы Румынии и Югославии. 20 октября 1944 года в Москве был дан салют в честь войск 3-го Украинского фронта и частей Дунайской военной флотилии, освободивших Белград. В конце декабря того же года, когда краснофлотцы принимали участие в боях за Будапешт, Сергея Георгиевича перевели на восток — командующим эскадрой Черноморского флота. Война для него закончилась. Хотя еще не совсем. В январе 1945 года С. Г. Горшков был уведомлен о том, что в Ялте должна состояться встреча руководителей СССР, США и Великобритании.

Как вспоминал адмирал, «В начале февраля Черноморский флот, корабли эскадры были приведены в повышенную боевую готовность. Принимались все меры предосторожности. Опасаясь возможного налета вражеской авиации, привели в повышенную готовность истребительную авиацию флота и зенитную артиллерию, в том числе и корабельную. В Севастополь прибывал штабной корабль американского Средиземноморского флота «Катоктин», специально оборудованный на случай, если Ливадия будет подвергнута авиационным ударам немцев и главам государств придется покинуть ее. На корабле имелись особые каюты для переговоров, обитые звуконепроницаемыми материалами, были установлены специальные средства связи. Мне поручалось принять этот корабль в Севастополе, обеспечивать его стоянку, а при выходе в море — и охранение. А затем я должен был встречать на аэродроме в Саки прибывавших туда самолетами руководителей США и Англии. Английский премьер-министр У. Черчилль прилетел первым. Несмотря на свою тучную фигуру, он показался мне подвижным и добродушным. Ступив на трап, с неизменной сигарой во рту, он помахал всем рукой. Одет он был в пальто, на голове — фуражка с блестящим козырьком. Многие обратили внимание, как он обходил строй почетного караула — медленно, вглядываясь в лица наших бойцов, прославившихся своим мужеством. Затем приземлился американский самолет. Мы знали, что президент Рузвельт болен, и в этом еще раз убедились, когда его переносили в “виллис”. Лицо у него было бледное. Строй почетного караула он объехал на машине. Встреча руководителей США и Англии проводилась без особых почестей, так сказать, в рабочем порядке. Я представился прибывшим. Состоялась очень краткая беседа, а затем они убыли в Ливадию, а я в Севастополь на “Катоктин”, который стоял возле Угольной стенки в немедленной готовности к выходу в море. Но, к счастью, его помощь не потребовалась, и через несколько дней он убыл вновь на Средиземное море».

После войны С. Г. Горшков долгое время командовал Черноморской эскадрой, получил звание вице-адмирала. А в 1951 году его назначили командующим всем Черноморским флотом. На этом посту он прославился тем, что был активным сторонником использования на кораблях вертолетной авиации. Очень много он сделал и для восстановления военно-морских баз на Черном море, пострадавших во время войны: Севастополя, Одессы, Новороссийска. Потом его профессиональный путь пошел резко в гору. Через несколько лет он — уже заместитель командующего ВМФ. А с 1956 по 1985 годы — Главком ВМФ СССР (в звании Адмирала Флота СССР). Пребывая на этой высокой должности, Сергей Григорьевич, в первую очередь, стремился реформировать советскую военно-морскую доктрину. Ранее считалось, что морские силы Советского Союза в возможных боевых действиях должны выполнять вспомогательные функции. С. Г. Горшков проводил линию на превращение флота в самостоятельную боевую единицу, способную выполнять стратегические задачи. Именно благодаря ему советские морские силы были оснащены самыми современными подводными лодками, способными нести ракетное вооружение. На море появились новейшие корабли всех классов, особенно авианосцы. Корабельной авиации и десантному флоту Главком придавал особое значение.

Военные историки единодушны в том, что время нахождения С. Г. Горшкова во главе советских ВМС составляет целую «эру» в развитии отечественного флота. Заслуги Главкома не раз были отмечены правительством. Он стал дважды Героем Советского Союза (1965, 1982). Ему отдавали должное и западные специалисты. В 1970 году военные эксперты США признали, что усилиями С. Г. Горшкова эпоха безраздельного господства военно-морских сил НАТО в Мировом океане закончилась. В 1973 году Британский публицист Г. Ли писал: «Если говорить, что кто-то превратил Россию в сверхдержаву на море, которой она без сомнения стала в настоящее время, то это и есть адмирал Горшков. Вступая в должность Главнокомандующего военно-морским флотом России, он располагал только печальным опытом боевых действий в период Второй мировой войны, на который можно было бы оглянуться. Флот не имел ни престижа, ни мощи, ни политического веса Красной Армии; в его безотрадные задачи входили защита побережья России и охрана морских флангов при каких-либо боевых действиях сухопутных сил. Когда адмирал Горшков передаст дела своему преемнику, он завещает ему и России современный военно-морской флот, имеющий по размеру и качеству только одного соперника — военно-морские силы США». В 1985 году С. Г. Горшков ушел в отставку. Через три года он скончается от сердечного приступа и будет похоронен на Новодевичьем кладбище в Москве.

Наш рассказ о Главкоме мы хотели бы завершить словами его биографа М. С. Монакова: «Сергей Георгиевич Горшков с полным правом мог сказать, что сделал себя сам. Но в том, что он стал именно таким, каким мы его знали, он обязан своему времени… Он был одним из главных архитекторов перемен, до неузнаваемости изменивших облик нашего флота, предопределивших судьбы моряков трех поколений. Кончилось отведенное ему историческое время — завершился и его земной путь».

Автор: Павел Котов

Прежде чем получить все лишнее, проанализируйте это

Лексикограф Merriam-Webster Эмили Брюстер: поклонница «кусков», но не «новых смешанных слов».

Лексикографы в Германии работали над Thesaurus Linguae Latinae с 1890-х годов, попутно умирая и заменяясь. Заметьте, они не просто определяют или находят общие значения. Они пишут биографию каждого латинского слова и отмечают все возможные известные способы его использования.

Они еще долго будут этим заниматься.

Их геркулесов труд украл у меня жалость к себе; Я больше не могу жалеть себя, когда я усердно работаю над, казалось бы, бесконечным проектом. Но The Thesaurus Linguae Latinae также заставил меня задуматься о кураторах американского английского. Как они отслеживают изменение формы слова или его смерть? (Мы навсегда потеряли слово «веселая» в смысле беззаботной, и когда вы в последний раз слышали, чтобы молодую женщину называли «скромной»? «Деморализировать» раньше означало развращать нравы, «мягкая» означала благородную, «растерянная» значит пьяный.)

Как редакторы словарей решают, когда новое слово может быть включено в список? Или выделить курсивом фритов ? Кто принес на крутую детскую вечеринку «разбор», «чревоугодие», «серьезность», «дальновидность», «зернистость» и «правдивость»? Какие нюансы английский до сих пор не может выразить? (У меня есть список: Attaccabottonai , по-итальянски — заунывный зануда, который распинает людей и рассказывает грустные, бессмысленные байки. Duende , по-испански — эротическая, сочная энергия, которая заставляет вещи мерцать. Фарпотшкет , Идиш за то что все загажено, тем более в результате попытки починить. Разблюто , по-русски чувство, которое человек испытывает к тому, кого когда-то любил…)

Заинтересовавшись, я звоню Эмили Брюстер, старшему редактору и лексикографу в Merriam-Webster, которая оказалась самым крутым любителем слов. Она ведет подкасты, остроумно рассказывает о сленге и политическом языке и является совладельцем паба в Тернерс-Фолс, штат Массачусетс. Словарь не является привратником языка, сразу же указывает она; это «скорее биолог, отслеживающий элементы в сложной лингвистической экосистеме.Все это время я подчеркивал красным карандашом слово в журнальной статье и писал М-В под исправлением? M-W восприняла свой -й сигнал из суждений, сделанных редакторами книг и журналов.

Еще одно мраморное сооружение стало мягким.

Осознание того, насколько интерактивен этот процесс, заставляет меня задуматься о том, что произойдет теперь, когда редактирование считается необязательным расходом, даже роскошью. Книги полны опечаток, а онлайн-копия часто не проходит мимо бифокального зрения редактора.

«Я много думаю об этом, — говорит Брюстер.«Что такое опубликованный, отредактированный текст, когда редактирования меньше? За последние сто лет произошел заметный сдвиг в сторону неформальности, а за последние двадцать лет вы действительно стали свидетелями обесценивания редакционного процесса». Я держу одну руку за горло, готовая разорвать на себе одежду, но она, кажется, довольно бодро относится к этому сдвигу: «Интересно, что он делает с языком», — говорит она. «Изменения происходят быстрее, потому что их не сдерживает красная ручка редактора».

Merriam-Webster попала в заголовки газет несколько месяцев назад, приняв небинарное «они», используемое в единственном числе, чтобы избежать местоимения, связанного с родом.«Это было то, за чем мы наблюдали в течение долгого времени», — говорит Брюстер, объясняя, что в дополнение к их обширной базе данных цитирования они хранят гигантскую электронную таблицу, чтобы отмечать новые применения. «Нам нужно значительное количество доказательств из различных источников, чтобы убедиться, что это не обусловлено какой-либо повесткой дня».

Небинарное «они» — это то, что я должен практиковать, я признаю, потому что оно просто кажется мне неправильным — хотя, по общему признанию, оно далеко не так неправильно, как чувствовали бы себя невыбранные «он» или «она».

«Единственное число «они» существует со времен Чосера, 600 лет, — отмечает Брюстер, — и первые 400 лет это было нормально.Затем последовали два столетия грамматического фашизма, которые оставили меня в моем нынешнем состоянии, а затем пять лет культурного сдвига и обратного принятия. Она предлагает другой пример: говоря с одним человеком, мы говорим: «Ты есть», потому что «ты» раньше было во множественном числе. То, она угадывает правильно, меня не смущает.

«Раньше у нас были «я» и «ты», — объясняет она, — а потом «ты» стали использовать в вежливых выражениях, вероятно, из-за влияния французского языка». В английском языке для вежливости используются титулы — сэр, мэм, милорд, — но во французском языке местоимения полностью меняются, как и в немецком.«Друзья в Германии выходят, чтобы отпраздновать тот факт, что их дружба достигла уровня, когда они теперь используют фамильярное местоимение», — отмечает Брюстер. Недавно она дала интервью немецкому общественному радио, потому что «немцы начинают использовать небинарное английское слово they как свое небинарное местоимение ». Им нужно было позаимствовать нейтральное слово, потому что их множественное число «они» совпадает с их местоимением женского рода, sie .

Мы говорим о роли поп-культуры в формировании языка: «Gift» как глагол существует уже много лет, но он стал популярным только после того, как в эпизоде ​​ Seinfeld неустанно использовались «gift» и «regift».«Gift отлично справляется со своей задачей, — добавляет Брюстер. «Если я «дам» вам книгу, это не так ясно, потому что я могу захотеть вернуть книгу».

«Распаковать» — это глагол, который Рэйчел Мэддоу применила для такой политической цели, что репортер из Washington Post исследует это явление. «Люди, у которых есть платформа, — вот что делает слово известным», — говорит Брюстер. «Чтобы иметь трибуну, вам нужна была кафедра или газета, какая-то авторитетная должность. В наше время любой может иметь его.«Sleek», что означает «совершенно сделано», было использовано в видео, которое подросток из Чикаго разместил на Vine, и оно просто взлетело. Это оказалось в рекламе Taco Bell».

Я спрашиваю о личном фаворите, «экстра» означает чрезмерное, пропитанное драмой. «Я знаю!» — восклицает она. «Мы писали об этом!» Пока мы разговариваем, она ищет, бормоча: «Это мир Google, а остальные просто живут в нем». Еще не допущенные в словарь, «лишние» живут в словах Merriam-Webster Words at Play, словах, за которыми они следят.

Новое слово, которое приводит Брюстера в восторг, — «ниблинг» — используется для обозначения любого ребенка брата или сестры, будь то племянница или племянник. В дополнение к тому, что это небинарно, это восхитительно и легко сказать: «Рад видеть своих крошек» гораздо менее неуклюже, чем «Рад видеть своих племянниц и племянников». Ей бы очень понравилось английское слово, обозначающее взрослое потомство, и когда она это сказала, я впервые осознал, насколько неудобна эта фраза. «Взрослые дети» хуже; это требует, чтобы вы снова сделали кого-то ребенком, просто чтобы сказать, что он вырос.

Я выдвигаю излюбленную теорию (потому что как часто мне приходится разговаривать с лексикологом?): «Я заметил то, что может быть тенденцией поколений. Когда люди моего возраста [хорошо, пожилые люди] делают заказ в ресторане, они говорят: «Я возьму…» или «Я бы хотел…». Следующее поколение говорит: «Я сделаю …’ Это потому, что еда стала казаться активным занятием, хобби, а не пассивной рутиной?» Я горжусь своей маленькой теорией; Я тестирую и дорабатываю его уже несколько месяцев. Как крадущийся лев, я замираю на полуслове и жду, внимательно слушая, пока друзья разного возраста заказывают себе еду.

Брюстер вежлив. «Это то, о чем мне нужно было подумать, редактируя запись со словом «делать», — говорит она. «Это чудовищная запись. Чем причудливее слово, тем проще его определить. Слова, которые делают большую часть тяжелой работы, являются самыми сложными. Вам почти нужно очистить свой календарь, если вы собираетесь работать над «делать». То, что вы замечаете, может относиться к поколениям. Это также может быть региональный язык или жаргон». Тактично она предостерегает меня от «ошибки новизны, когда вы осознаете что-то, видите это повсюду и думаете, что это ново.Это то, с чем я часто сталкиваюсь, когда отслеживаю слова».

Она много думает об «изменениях, которым язык сопротивляется сотни лет, вроде «лгать» и «лгать». Какая мерзкая пара слов, особенно когда начинаешь их спрягать. «Я отложил книгу. Я отложил ее. Я отложил». соединяйте «правильно», — продолжает она. «Мой прогноз, хотя я еще не озвучил его вслух, состоит в том, что «lay», употребляемое непереходно, будет становиться все более и более заметным.

Я ненавижу слово «поделиться», потому что это расчетливое действие через социальные сети и , а не щедрый порыв. «Поделиться» так часто надумано. Застенчивый ребенок, я боялся, что меня спросят: «Не хочешь ли ты поделиться этим с классом?» когда меня поймали за шепотом.

О, и «гидрат». Серьезно?

Брюстер не таит столько обид. Работа всей ее жизни сделала ее менее осуждающей: «Я пойму, что то, что я считал деловым языком, таковым не является; это то, что я считал необразованным, люди говорят уже сто лет.Лексикография требует более глубокого взгляда на развитие языка, поэтому меня это не сильно беспокоит».

«Кроме?» Я нажимаю, потому что никто не настолько безмятежен.

«Я не большой поклонник новых смешанных слов», — признается она. «Мы не начинали комбинировать слова таким образом до начала двадцатого века. «Поздний завтрак». «Смог». Смеси могут быть эффективными. И их весело придумывать — у меня есть восьмилетний ребенок, который их придумывает. Но развлечений?

Готов поспорить, что в латыни не было эквивалента.

(PDF) Рекурсивная композиция поддерева в анализе зависимостей на основе LSTM

Жоаким Нивр. 2008. Алгоритмы для детерминированного инкрементного анализа зависимостей. Компьютерная лингвистика

, 34:513–553.

Жоаким Нивре. 2009. Анализ непроективных зависимостей —

за ожидаемое линейное время. В материалах совместной конференции

47-го ежегодного собрания ACL

и 4-й Международной совместной конференции по обработке естественного языка

AFNLP (ACL —

IJCNLP), страницы 351–359.

joakim nivre,

joakim nivre,

zeljko agi’

c, Ларс Ахренберг, Lene

Antonsen, Maria Isus aranzabe, Masayuki Asa-

Hara, Luma Asa-

Hara, Luma Ateyah, Mohammed Atutxa, Aitziber

Atutxa, Liebeth Augustinus, Елена Бадмаева ,

Мигель Баллестерос, Эша Банерджи, Себастьян Бэнк,

Вергиника Барбу Митителу, Джон Бауэр, Кепа Бен-

goetxea, Riyaz Ahmad Bhat, Eckhard Bick, Victo-

ria Bobicev, Carl B¨ 900, Orstells 900 2 000 Bosco, Gosse

Bouma, Sam Bowman, Aljoscha Burchardt, Marie

Candito, Gauthier Caron, G¨

uls¸en Cebiro˘

glu Eryi˘

Gituse,

3 gituse.A. Celano, Savas Cetin, Fabri-

cio Chalub, Jinho Choi, Silvie Cinkova, C¸ a ˘

grı

C¸ ¨

oltekin, Miriam Connor, Elizabeth Davidson,

Marie-Catherine Валерия де Пайва,

Арантза Диас де Иларраса, Питер Дирикс, Кая До-

Броволжц, Тимоти Дозат, Кира Дроганова, Пунит

Двиведи, Мархаба Эли, Али Элькахи, Томач

z Эрьявец,

Рич,

с Эржавец,

Fernandez alcalde, jennifer

fostoster, cláudia freitas, katarína gajdo

Sová, daniel

Galbraith, Marcos Garcia, MOA G¨

Ardenfors, Kim

Gerdes, Filip Ginter, Iakes Goenaga, Koldo Go-

Jenola, Memduh G¨

Okırmak, Yoav Goldberg, Xavier

Gómez Guinovart, Berta Gonzáles Saavedra, MA-

TIAS Гриони, Normunds Gr¯

UZ¯

ITIS, Bruno Guillaume,

Nizar Habash, Jan Haji

в, Ян Хаджи

c мл., Linh hà mỹ,

Ким Харрис, Даг Хауг, Барборна Хлада, Ярослава

HLavá

Cová, Флоринель Хотьюн, Petter Hohle, Radu

Ion, Елена Ирилия, Tomá

S Елинек, Anders Jo-

Hannsen , Фредрик Йоргенсен, h ¨

Uner Kas¸ıkara, Hi-

Роши Канаяма, Дженна Канерва, Тольга Каядей-

Лен, Ваклава Кетрова, Джесси Кирхнер, Наталья

KOTSYBA, Simon Krek, Veronika Laippala, Lorenzo

Ламбертино, Татьяна Ландо, Джон Ли, Фонг

Ле Х`

Онг, Алессандро Ленчи, Саран Лертпрадит, Хер-

Ман Леунг, Чеук Йинг Ли, Джози Ли, Кейинг

Ли, Никола Любе

93 0 300002

3

C, Ольга Логина, Ольга Ля-

Шевская, Тереза ​​Линн, Вивьен Маккетанс, Aibek

Макажанов, Майкл Мандл, Кристофер Мэннинг,

Cătălina Menănduc, Дэвид Маре

CEK, Katrin Marhei-

Necke, Héctor Martínez Ало НДО, Андре Мартинс,

мА

Sek, Yuji Matsumoto, Райан Макдональд, Gustavo

Mendonc¸a, Niko Miekka, Anna Missil¨

A, Cătălin

Mititelu, Юсуке Мияо, Симонетта Монтемагни,

Amir Подробнее, Лаура Морено Ромеро, Shinsuke Mori,

Богдан Москалевский, Кадри Мюислок, Kaili

Urisep, Pinkey Nainwani, Anna Needoluzhko,

Gunta NE

Spore-B¯

erzkalne Lương nguy ~

ên thị,

ên nguy ~

ên nguy~

ên Thị minh, Виталий Николаев, Hanna

Nurmi, Стина Оджала, Петя Остенова, Роберт ¨

Отель,

Лилья Отельрелид, Елена Паскур , Марко Пассаротти,

Сенель-Аугусто Перес, Ги Перрье, Слав Петров, Юсси

Пиитулайнен, Эмили Питлер, Барбара Планк, Мартин

Попель, Лаума Преткальниня, Прокопис Прокопидис, Ти-

ина Пуолакаинен о, Александр Раде-

производитель, Логанатан Рамасами, Тарака Рама, Винит

Равишанкар, Ливи Реал, Сива Редди, Георг Рем,

Лариса Ринальди, Лаура Ритума, Михаил Рома-

ненко, Рудольф Роса, Давиде Ромова Beno

IT SAGOT,

SADI Saleh, Tanja Samard

Zi’

C, Manuela Sanguinetti,

C, Manuela Sanguinetti,

Baiba Saul¯

ITE, Себастьян Шустер, Djamé Seddah,

Wolfgang Issery, Mojgan Seraji, Mo Shen, At-

Суко Шимада, Дмитрий Сичинава, Наталья Сильвейра,

Мария Сими, Раду Симионеску, Каталин Симко,

Мария ˇ

Симкова, Кирил Симов, Аарон Смит, Ан-

Милана Страка, Яна Страка, Стелла , Alane

Сух, Умут Сулубакак, Zsolt Szántó, Дима Таджи,

Такаки Танака, Трон Тростеред, Анна Трухина,

Reut Zarfaty, Фрэнсис Тайерс, Сумире Умату,

ZDE

NKA URE

Sová, Ларраиц Урия, Ханс Ушкорейт,

Совмя Вайьяла, Даниэль ван Никерк, Гертьян ван

Норд, Виктор Варга, Эрик Вильмонте де ла Клерг-

Эри, Вероника Винче, Ларс Валлин, Джонатан Норт

Вашингтон, Цак Вирен -sum Wong, Zhuoran

Yu, Zdenˇ

ek ˇ

Zabokrtský, Amir Zeldes, Daniel Ze-

man и Hanzhi Zhu.2017. Универсальные зависимости-

2.1. Цифровая библиотека LINDAT/CLARIN в Институте формальной и прикладной лингвистики (ÚFAL),

, Факультет математики и физики, Карлов университет,

.

Мэтью Э. Питерс, Марк Нойманн, Мохит Ийер, Мэтт

Гарднер, Кристофер Кларк, Кентон Ли и Люк

Зеттлемойер. 2018. Глубокие контекстуализированные словесные представления

. В проц. НААКЛ.

Пэн Ци и Кристофер Д.Мэннинг. 2017. Arc-swift:

Новая система перехода для разбора зависимостей.

В материалах 55-го Ежегодного собрания Ассоциации компьютерной лингвистики

(Том

2: Краткие статьи), страницы 110–117. Ассоциация

Компьютерная лингвистика.

Кенджи Сагае и Алон Лави. 2006. Комбинация парсеров

путем повторного анализа. В Proceedings of the Human Language Technology Conference of NAACL, Com-

Volume: Short Papers, страницы 129–132.

Аарон Смит, Бернд Бонет, Мирьям де Лоно,

Жоаким Нивр, Ян Шао и Сара Стимне. 2018а.

82 банка деревьев, 34 модели: универсальная зависимость

разбор моделей с несколькими банками деревьев. В Proceedings of the CoNLL 2018 Shared Task: Multilingual

Parsing from Raw Text to Universal Dependencies,

page 113–123. Ассоциация компьютерной лингвистики

.

Аарон Смит, Мирьям де Лоно, Сара Стимне и

Жоаким Нивр.2018б. Исследование взаимодействий между предварительно обученными вложениями слов, моделями персонажей и

почтовыми тегами при анализе зависимостей.

В материалах конференции 2018 г. по эмпирическим методам обработки естественного языка, стр.

2711–2720. Ассоциация компьютерной лингвистики –

тик.

Ричард Сочер, Джон Бауэр, Кристофер Д. Мэннинг,

и др. 2013. Парсинг с композиционной векторной граммой-

mars.В материалах 51-го ежегодного собрания

экспериментов с GLR и разбором диаграмм

‘) var buybox = document.querySelector(«[data-id=id_»+ метка времени +»]»).parentNode ;[].slice.call(buybox.querySelectorAll(«.вариант-покупки»)).forEach(initCollapsibles) функция initCollapsibles(подписка, индекс) { var toggle = подписка.querySelector(«.Цена-варианта-покупки») подписка.classList.remove(«расширенный») var form = подписка.querySelector(«.форма-варианта-покупки») если (форма) { вар formAction = form.getAttribute(«действие») form.setAttribute(«действие», formAction.replace(«/checkout», «/cart»)) document.querySelector(«#ecommerce-scripts»).addEventListener(«load», bindModal(form, formAction, timestamp, index), false) } var priceInfo = подписка.селектор запросов(«.Информация о цене») var PurchaseOption = toggle.parentElement если (переключить && форма && priceInfo) { toggle.setAttribute(«роль», «кнопка») toggle.setAttribute(«tabindex», «0») toggle.addEventListener («щелчок», функция (событие) { var expand = toggle.getAttribute(«aria-expanded») === «true» || ложный переключать.setAttribute(«расширенная ария», !расширенная) form.hidden = расширенный если (! расширено) { покупкаOption.classList.add(«расширенный») } еще { покупкаOption.classList.remove(«расширенный») } priceInfo.hidden = расширенный }, ложный) } } функция bindModal (форма, formAction, метка времени, индекс) { var weHasBrowserSupport = окно.выборка && Array.from функция возврата () { var Buybox = EcommScripts ? EcommScripts.Buybox : ноль var Modal = EcommScripts ? EcommScripts.Modal : ноль if (weHasBrowserSupport && Buybox && Modal) { var modalID = «ecomm-modal_» + метка времени + «_» + индекс var modal = новый модальный (modalID) модальный.domEl.addEventListener(«закрыть», закрыть) функция закрыть () { form.querySelector(«кнопка[тип=отправить]»).фокус() } форма.setAttribute( «действие», formAction.replace(«/checkout», «/cart?messageOnly=1») ) form.addEventListener( «представить», Буйбокс.перехват формы отправки ( Buybox.fetchFormAction(окно.fetch), Buybox.triggerModalAfterAddToCartSuccess(модальный), консоль.лог, ), ложный ) document.body.appendChild(modal.domEl) } } } функция initKeyControls() { документ.addEventListener(«keydown», функция (событие) { if (document.activeElement.classList.contains(«цена-варианта-покупки») && (event.code === «Пробел» || event.code === «Enter»)) { если (document.activeElement) { событие.preventDefault() документ.activeElement.click() } } }, ложный) } функция InitialStateOpen() { var buyboxWidth = buybox.смещениеШирина ;[].slice.call(buybox.querySelectorAll(«.опция покупки»)).forEach(функция (опция, индекс) { var toggle = option.querySelector(«.цена-варианта-покупки») var form = option.querySelector(«.форма-варианта-покупки») var priceInfo = option.querySelector(«.Информация о цене») если (buyboxWidth > 480) { переключить.щелчок() } еще { если (индекс === 0) { переключать.щелчок() } еще { toggle.setAttribute («ария-расширенная», «ложь») form.hidden = «скрытый» priceInfo.hidden = «скрытый» } } }) } начальное состояниеОткрыть() если (window.buyboxInitialized) вернуть window.buyboxInitialized = истина initKeyControls() })()

Что такое анализ текста? Руководство для начинающих

Если вы получаете огромные объемы неструктурированных данных в виде текста (электронные письма, разговоры в социальных сетях, чаты), вы, вероятно, знаете о проблемах, связанных с анализом этих данных.

Обработка и организация текстовых данных вручную требует времени, утомительна, неточна и может быть дорогостоящей, если вам нужно нанять дополнительных сотрудников для сортировки текста.


Автоматизируйте анализ текста с помощью инструмента без кода


Из этого руководства вы узнаете больше о том, что такое анализ текста, как выполнять анализ текста с помощью инструментов ИИ и почему как никогда важно автоматически анализировать текст в реальном времени. время.

  1. Основы анализа текста
  2. Методы и приемы
  3. Как работает анализ текста?
  4. Как анализировать текстовые данные
  5. Варианты использования и приложения
  6. Инструменты и ресурсы
  7. Учебное пособие

Что такое текстовый анализ?

Анализ текста (TA) — это метод машинного обучения, используемый для автоматического извлечения ценных сведений из неструктурированных текстовых данных.Компании используют инструменты анализа текста, чтобы быстро анализировать онлайн-данные и документы и преобразовывать их в полезную информацию.

Вы можете использовать текстовый анализ для извлечения определенной информации, такой как ключевые слова, имена или информация о компании из тысяч электронных писем, или классифицировать ответы на опросы по настроению и теме.

Анализ текста, анализ текста и анализ текста

Во-первых, давайте развеем миф о том, что анализ текста и анализ текста — это два разных процесса.Эти термины часто используются взаимозаменяемо для объяснения одного и того же процесса получения данных посредством изучения статистических моделей. Чтобы избежать путаницы, давайте остановимся на анализе текста.

Итак, анализ текста против анализа текста : в чем разница?

Анализ текста дает качественные результаты, а анализ текста дает количественные результаты. Если машина выполняет текстовый анализ, она идентифицирует важную информацию в самом тексте, но если она выполняет текстовую аналитику, она выявляет закономерности в тысячах текстов, что приводит к графикам, отчетам, таблицам и т. д.

Допустим, менеджер службы поддержки хочет знать, сколько обращений в службу поддержки было решено отдельными членами команды. В этом случае они использовали бы текстовую аналитику для создания графика, который визуализирует скорость разрешения отдельных заявок.

Однако, вполне вероятно, что менеджер также хочет знать, какая часть заявок привела к положительному или отрицательному результату?

Анализируя текст в каждой заявке и последующие обмены, менеджеры службы поддержки клиентов могут видеть, как каждый агент обрабатывал заявки и были ли клиенты довольны результатом.

По сути, задача анализа текста состоит в том, чтобы расшифровать двусмысленность человеческого языка, а в анализе текста — выявить закономерности и тенденции на основе числовых результатов.

Почему важен анализ текста?

Когда вы заставляете машины работать над организацией и анализом ваших текстовых данных, вы получаете огромные знания и преимущества.

Ниже приведены некоторые преимущества анализа текста:

Масштабируемость анализа текста

Инструменты анализа текста позволяют компаниям структурировать огромное количество информации, такой как электронные письма, чаты, социальные сети, запросы в службу поддержки, документы, и так далее, за секунды, а не дни, так что вы можете перенаправить дополнительные ресурсы на более важные бизнес-задачи.

Анализ текста в режиме реального времени

В наши дни предприятия перегружены информацией, и комментарии клиентов могут появляться где угодно в Интернете, но бывает сложно уследить за всем этим. Анализ текста меняет правила игры, когда речь идет об обнаружении срочных дел, где бы они ни появлялись, круглосуточно и без выходных в режиме реального времени. Обучив модели анализа текста обнаруживать выражения и настроения, которые подразумевают негатив или срочность, компании могут автоматически помечать твиты, обзоры, видео, билеты и т. п. и принимать меры раньше, чем позже.

Анализ текста с помощью ИИ дает согласованные критерии

Люди допускают ошибки. Факт. И чем утомительнее и трудоемче задача, тем больше ошибок они делают. Обучая модели анализа текста вашим потребностям и критериям, алгоритмы могут анализировать, понимать и сортировать данные гораздо точнее, чем люди.

Методы и приемы анализа текста

Существуют базовые и более сложные методы анализа текста, каждый из которых используется для разных целей.Во-первых, узнайте о более простых методах анализа текста и примерах того, когда вы можете использовать каждый из них.

Классификация текста

Классификация текста — это процесс присвоения предопределенных тегов или категорий неструктурированному тексту. Он считается одним из самых полезных методов обработки естественного языка, потому что он настолько универсален и может организовывать, структурировать и классифицировать практически любую форму текста для предоставления значимых данных и решения проблем. Обработка естественного языка (NLP) — это метод машинного обучения, который позволяет компьютерам разбивать и понимать текст так же, как это сделал бы человек.

Ниже мы сосредоточимся на некоторых из наиболее распространенных задач классификации текста, которые включают анализ тональности, моделирование тем, определение языка и определение намерений.

Анализ настроений

Клиенты свободно оставляют свое мнение о компаниях и продуктах при взаимодействии со службой поддержки, в опросах и по всему Интернету. Анализ настроений использует мощные алгоритмы машинного обучения для автоматического считывания и классификации по полярности мнений (положительные, отрицательные, нейтральные) и выше, по чувствам и эмоциям автора, даже по контексту и сарказму.

Например, с помощью анализа настроений компании могут помечать жалобы или срочные запросы, чтобы их можно было немедленно решить — даже предотвратить PR-кризис в социальных сетях. Классификаторы настроений могут оценивать репутацию бренда, проводить исследования рынка и помогать улучшать продукты с учетом отзывов клиентов.

Попробуйте предварительно обученный классификатор MonkeyLearn. Просто введите свой собственный текст, чтобы увидеть, как это работает:

Проверьте свой собственный текст

Нравится новое обновление. Это очень быстро! Классифицировать текст

Тематический анализ

Другим распространенным примером классификации текста является тематический анализ (или моделирование темы), который автоматически организует текст по теме или теме.Например:

«Приложение действительно простое и удобное в использовании»

Если мы используем тематические категории, такие как Цены, Поддержка клиентов, и Простота использования, этот отзыв о продукте будет классифицирован под Простота использования .

Попробуйте предварительно обученный классификатор тем MonkeyLearn, который можно использовать для классификации ответов NPS для продуктов SaaS.

Обнаружение намерений

Классификаторы текста также можно использовать для определения намерений текста.Обнаружение намерений или классификация намерений часто используются для автоматического понимания причин обратной связи с клиентами. Это жалоба? Или клиент пишет с намерением приобрести продукт? Машинное обучение может читать разговоры чат-ботов или электронные письма и автоматически направлять их соответствующему отделу или сотруднику.

Попробуйте классификатор намерений электронной почты MonkeyLearn.

Извлечение текста — еще один широко используемый метод анализа текста, который извлекает фрагменты данных, которые уже существуют в любом заданном тексте.Вы можете извлекать такие вещи, как ключевые слова, цены, названия компаний и спецификации продуктов, из новостных отчетов, обзоров продуктов и т. д.

Вы можете автоматически заполнять электронные таблицы этими данными или выполнять извлечение вместе с другими методами анализа текста, чтобы одновременно классифицировать и извлекать данные.

Ключевые слова — это наиболее часто используемые и наиболее релевантные термины в тексте, слова и фразы, обобщающие содержание текста. [Извлечение ключевых слов](](https://monkeylearn.com/keyword-extraction/) можно использовать для индексации данных для поиска и для создания облаков слов (визуальное представление текстовых данных).

Попробуйте предварительно обученный экстрактор ключевых слов MonkeyLearn, чтобы увидеть, как он работает. Просто введите свой текст ниже:

Тест со своим текстом

Илон Маск поделился фотографией скафандра, разработанного SpaceX. Это второе изображение нового дизайна и первое, на котором изображен скафандр в полный рост. Извлечение текста

Распознавание сущностей

Экстрактор распознавания именованных сущностей (NER) находит сущности, которые могут быть людьми, компаниями или местами. и существуют в текстовых данных.Результаты показаны с соответствующей меткой объекта, как в предварительно обученном экстракторе имени MonkeyLearn:

Тест с вашим собственным текстом

SpaceX — производитель аэрокосмической техники и компания, предоставляющая услуги космического транспорта, со штаб-квартирой в Калифорнии. Он был основан в 2002 году предпринимателем и инвестором Илоном Маском с целью снижения затрат на космические перевозки и обеспечения возможности колонизации Марса. Извлечение текста

Частота слов

Частота слов — это метод анализа текста, который измеряет наиболее часто встречающиеся слова или понятия. в заданном тексте с использованием числовой статистики TF-IDF (термин частотно-обратная частота документа).

Вы можете применить этот метод для анализа слов или выражений, которые клиенты чаще всего используют в разговорах со службой поддержки. Например, если слово «доставка» чаще всего появляется в наборе отрицательных обращений в службу поддержки, это может свидетельствовать о том, что клиенты недовольны вашей службой доставки.

Словосочетание

Словосочетание помогает идентифицировать слова, которые часто встречаются вместе. Например, в отзывах клиентов на веб-сайте бронирования отелей слова «воздух» и «кондиционирование» чаще встречаются вместе, чем по отдельности.Биграммы (два смежных слова, например, «кондиционер» или «поддержка клиентов») и триграммы (три смежных слова, например, «вне офиса» или «продолжение следует») — наиболее распространенные типы словосочетаний, на которые вам нужно обращать внимание. .

Коллокация может быть полезна для выявления скрытых семантических структур и повышения детализации информации за счет подсчета биграмм и триграмм как одного слова.

Согласование

Согласование помогает определить контекст и экземпляры слов или набора слов.Например, следующее соответствие слова «простой» в наборе обзоров приложений:

В этом случае соответствие слова «простой» может дать нам быстрое представление о том, как рецензенты используют это слово. Его также можно использовать для декодирования неоднозначности человеческого языка в определенной степени, глядя на то, как слова используются в разных контекстах, а также имея возможность анализировать более сложные фразы.

Устранение неоднозначности смысла слова

Очень часто слово имеет более одного значения, поэтому устранение неоднозначности смысла слова является серьезной проблемой при обработке естественного языка.Возьмем, к примеру, слово «свет». Относится ли текст к весу, цвету или электрическому прибору? Интеллектуальный анализ текста с устранением неоднозначности слов может различать слова, имеющие более одного значения, но только после обучения моделей этому.

Кластеризация

Текстовые кластеры способны понимать и группировать огромное количество неструктурированных данных. Хотя они менее точны, чем алгоритмы классификации, алгоритмы кластеризации реализуются быстрее, поскольку для обучения моделей не нужно помечать примеры.Это означает, что эти интеллектуальные алгоритмы извлекают информацию и делают прогнозы без использования обучающих данных, иначе называемых неконтролируемым машинным обучением.

Google — отличный пример того, как работает кластеризация. Когда вы ищете термин в Google, задумывались ли вы когда-нибудь о том, что для получения релевантных результатов требуется всего несколько секунд? Алгоритм Google разбивает неструктурированные данные с веб-страниц и группирует страницы в кластеры вокруг набора похожих слов или n-грамм (всех возможных комбинаций соседних слов или букв в тексте).Таким образом, страницы из кластера, которые содержат большее количество слов или n-грамм, релевантных поисковому запросу, будут отображаться первыми в результатах.

Как работает анализ текста?

Чтобы действительно понять, как работает автоматический анализ текста, вам необходимо понять основы машинного обучения. Начнем с определения Тома Митчелла из книги «Машинное обучение»:

«Говорят, что компьютерная программа учится выполнять задачу T на основе опыта E».

Другими словами, если мы хотим, чтобы программное обеспечение для анализа текста выполняло желаемые задачи, нам нужно научить алгоритмы машинного обучения анализировать, понимать и извлекать смысл из текста.Но как? Простой ответ — пометить примеры текста. Как только у машины будет достаточно примеров размеченного текста для работы, алгоритмы смогут начать различать и устанавливать ассоциации между фрагментами текста и делать прогнозы сами по себе.

Это очень похоже на то, как люди учатся различать темы, объекты и эмоции. Допустим, у нас есть срочные и малоприоритетные проблемы, которые нужно решить. Мы инстинктивно не знаем разницы между ними — мы учимся постепенно, связывая срочность с определенными выражениями.

Например, когда мы хотим определить срочные проблемы, мы будем искать такие выражения, как ‘пожалуйста, помогите мне как можно скорее!’ или ‘срочно: не могу войти на платформу, система ВЫКЛЮЧЕНА!’ . С другой стороны, чтобы определить проблемы с низким приоритетом, мы будем искать более позитивные выражения, такие как ‘спасибо за помощь! Действительно ценю это’ или ‘новая функция работает как сон’ .

Как анализировать текстовые данные

Анализ текста может растянуть крылья ИИ на весь диапазон текстов в зависимости от желаемых результатов.Его можно применить к:

  • Целым документам : получение информации из всего документа или абзаца: например, общее настроение отзыва клиента.
  • Отдельные предложения : получает информацию из конкретных предложений: например, более подробные настроения каждого предложения отзыва клиента.
  • Подпредложения : получает информацию из подвыражений в предложении: например, основные настроения каждой единицы мнения отзыва клиента.

Как только вы поймете, как вы хотите разбивать данные, вы можете приступить к их анализу.

Давайте рассмотрим, как работает анализ текста, шаг за шагом, и более подробно рассмотрим различные доступные алгоритмы и методы машинного обучения.

Сбор данных

Вы можете собирать данные о своем бренде, продукте или услуге как из внутренних, так и из внешних источников:

Внутренние данные

Это данные, которые вы генерируете каждый день, от электронных писем и чатов до опросов, запросов клиентов, и билеты поддержки клиентов.

Вам просто нужно экспортировать его из своего программного обеспечения или платформы в виде файла CSV или Excel или подключить API для прямого доступа.

Некоторые примеры внутренних данных:

  • Программное обеспечение для обслуживания клиентов : программное обеспечение, которое вы используете для общения с клиентами, управления запросами пользователей и решения проблем поддержки клиентов: Zendesk, Freshdesk и Help Scout — несколько примеров.

  • CRM : программное обеспечение, которое отслеживает все взаимодействия с клиентами или потенциальными клиентами.Это может включать в себя различные области, от поддержки клиентов до продаж и маркетинга. Hubspot, Salesforce и Pipedrive являются примерами CRM.

  • Chat : приложения, которые общаются с членами вашей команды или вашими клиентами, такие как Slack, Hipchat, Intercom и Drift.

  • Электронная почта : король делового общения, электронная почта по-прежнему остается самым популярным инструментом для управления беседами с клиентами и членами команды.

  • Опросы : обычно используются для сбора отзывов о службе поддержки клиентов, отзывах о продуктах или для проведения маркетинговых исследований, таких как Typeform, Google Forms и SurveyMonkey.

  • NPS (Net Promoter Score) : один из самых популярных показателей качества обслуживания клиентов в мире. Многие компании используют программное обеспечение для отслеживания NPS для сбора и анализа отзывов своих клиентов. Вот несколько примеров: Delighted, Promoter.io и Satismeter.

  • Базы данных : база данных представляет собой набор информации. Используя систему управления базами данных, компания может хранить, управлять и анализировать все виды данных. Примеры баз данных включают Postgres, MongoDB и MySQL.

  • Аналитика продукта : отзывы и информация о взаимодействии клиента с вашим продуктом или услугой. Полезно понимать путь клиента и принимать решения на основе данных. ProductBoard и UserVoice — это два инструмента, которые вы можете использовать для обработки аналитики продуктов.

Внешние данные

Это текстовые данные о вашем бренде или продуктах со всего Интернета. Вы можете использовать инструменты парсинга веб-страниц, API-интерфейсы и открытые наборы данных для сбора внешних данных из социальных сетей, новостных сводок, онлайн-обзоров, форумов и т. д. и анализировать их с помощью моделей машинного обучения.

Инструменты веб-скрейпинга:
  • Визуальные инструменты веб-скрейпинга : вы можете создать свой собственный веб-скрейпер, даже не имея опыта программирования, с такими инструментами, как. Dexi.io, Portia и ParseHub.e.

  • Web Scraping Frameworks : опытные программисты могут воспользоваться такими инструментами, как Scrapy на Python и Wombat на Ruby, для создания пользовательских парсеров.

API

Facebook, Twitter и Instagram, например, имеют свои собственные API и позволяют извлекать данные с их платформ.Крупные СМИ, такие как New York Times или The Guardian, также имеют свои собственные API-интерфейсы, и вы можете использовать их, среди прочего, для поиска в их архиве или сбора комментариев пользователей.

Интеграция

Инструменты SaaS, такие как MonkeyLearn, предлагают интеграцию с инструментами, которые вы уже используете. Вы можете напрямую подключаться к Twitter, Google Sheets, Gmail, Zendesk, SurveyMonkey, Rapidminer и другим ресурсам. И выполните текстовый анализ данных Excel, загрузив файл.

2. Подготовка данных

Чтобы автоматически анализировать текст с помощью машинного обучения, вам необходимо упорядочить данные.Большая часть этого делается автоматически, и вы даже не заметите, как это происходит. Однако важно понимать, что автоматический анализ текста использует ряд методов обработки естественного языка (NLP), подобных приведенным ниже.

Токенизация, тегирование частей речи и синтаксический анализ

Токенизация — это процесс разбиения строки символов на семантически значимые части, которые можно анализировать (например, слова), при отбрасывании бессмысленных фрагментов (например, пробелов).

В приведенных ниже примерах показаны два разных способа токенизации строки ‘Анализ текста не так уж и сложен’ .

(Неверно): Анализировать текст не так сложно. = [«Анализ», «анализировать текст», «это н», «не то», «сложно».]

(Правильно): анализировать текст не так уж и сложно. = [«Анализ», «текст», «есть», «не», «это», «трудно», «.»]

После распознавания токенов пришло время классифицировать их по категориям. Тегирование части речи относится к процессу присвоения грамматической категории, такой как существительное, глагол и т. Д., Обнаруженным токенам.

Вот теги PoS токенов из предложения выше:

«Анализ»: ГЛАГОЛ, «текст»: СУЩЕСТВИТЕЛЬНОЕ, «есть»: ГЛАГОЛ, «не»: ADV, «тот»: ADV, «жесткий» : ПРИЛАГ, “.”: PUNCT

Со всеми категоризированными токенами и языковой моделью (то есть грамматикой) система теперь может создавать более сложные представления текстов, которые она будет анализировать. Этот процесс известен как анализ . Другими словами, синтаксический анализ относится к процессу определения синтаксической структуры текста. Для этого алгоритм синтаксического анализа использует грамматику языка, на котором был написан текст. В результате синтаксического анализа одного и того же текста с использованием различных грамматик будут получены разные представления.

В приведенных ниже примерах показаны представления зависимости и избирательного округа предложения «Анализ текста не так уж и сложен» .

Разбор зависимостей

Грамматики зависимостей можно определить как грамматики, устанавливающие направленные отношения между словами предложений. Анализ зависимостей — это процесс использования грамматики зависимостей для определения синтаксической структуры предложения:

Анализ составных частей

Грамматики структуры фраз составляющих моделируют синтаксические структуры, используя абстрактные узлы, связанные со словами и другими абстрактными категориями (в зависимости от тип грамматики) и ненаправленные отношения между ними. Синтаксический анализ групп относится к процессу использования грамматики групп для определения синтаксической структуры предложения:

Как вы можете видеть на изображениях выше, выходные данные алгоритмов анализа содержат большое количество информации, которая может помочь вам понять синтаксическая (и отчасти семантическая) сложность текста, который вы собираетесь анализировать.

В зависимости от решаемой проблемы вы можете попробовать разные стратегии и методы синтаксического анализа. Однако в настоящее время синтаксический анализ зависимостей, похоже, превосходит другие подходы.

Лемматизация и стемминг

Стемминг и лемматизация относятся к процессу удаления всех аффиксов (т. е. суффиксов, префиксов и т. д.), присоединенных к слову, чтобы сохранить его лексическую основу, также известную как корень или основа или его словарная форма или le mma . Основное различие между этими двумя процессами заключается в том, что генерация обычно основана на правилах, которые обрезают начало и окончание слов (и иногда приводят к несколько странным результатам), тогда как лемматизация использует словари и гораздо более сложный морфологический анализ.

В таблице ниже показаны выходные данные стеммера Snowball Stemmer NLTK и лемматизатора Spacy для токенов в предложении «Анализ текста не так уж и сложен» . Различия в выводе выделены жирным шрифтом:

Удаление стоп-слов

Чтобы обеспечить более точный автоматический анализ текста, нам нужно удалить слова, которые дают очень мало семантической информации или вообще не имеют значения. Эти слова также известны как стоп-слов: a, and, or, the и т. д.

Для каждого языка существует множество различных списков стоп-слов.Однако важно понимать, что вам может понадобиться добавить слова в эти списки или удалить их из них в зависимости от текстов, которые вы хотите проанализировать, и анализов, которые вы хотели бы выполнить.

Возможно, вы захотите провести лексический анализ домена, из которого пришли ваши тексты, чтобы определить слова, которые следует добавить в список стоп-слов.

Анализ ваших текстовых данных

Теперь, когда вы научились анализировать неструктурированные текстовые данные и научились основам подготовки данных, как вы будете анализировать весь этот текст?

Что ж, анализ неструктурированного текста не прост.Существует бесчисленное множество методов анализа текста, но два основных метода — это классификация текста и извлечение текста.

Классификация текста

Классификация текста (также известная как категоризация текста или тегирование текста ) относится к процессу присвоения тегов текстам на основе их содержания.

Раньше классификация текста выполнялась вручную, что занимало много времени, было неэффективным и неточным. Но автоматизированные модели анализа текста машинного обучения часто работают всего за несколько секунд с непревзойденной точностью.

Наиболее популярные задачи классификации текста включают анализ тональности (т. е. определение, когда в тексте говорится что-то положительное или отрицательное по заданной теме), определение темы (т. е. определение того, о чем говорится в тексте) и определение намерения (т. е. определение цели или

Системы, основанные на правилах

В текстовой классификации правило образец, который можно найти в тексте и теге.Правила обычно состоят из ссылок на морфологические, лексические или синтаксические образцы, но они также могут содержать ссылки на другие компоненты языка, такие как семантика или фонология.

Вот пример простого правила для классификации описаний продуктов в соответствии с типом продукта, описанного в тексте:

(HDD|RAM|SSD|Память) → Оборудование

В этом случае система назначит Тег Hardware к тем текстам, которые содержат слова HDD , RAM , SSD или Memory .

Наиболее очевидным преимуществом систем, основанных на правилах, является то, что они легко понятны людям. Однако создание сложных систем, основанных на правилах, требует много времени и больших знаний как в лингвистике, так и в темах, затрагиваемых в текстах, которые система должна анализировать.

Кроме того, системы на основе правил трудно масштабировать и поддерживать, поскольку добавление новых правил или изменение существующих требует тщательного анализа и проверки влияния этих изменений на результаты прогнозов.

Системы на основе машинного обучения

Системы на основе машинного обучения могут делать прогнозы на основе того, что они узнали из прошлых наблюдений. Этим системам необходимо предоставить несколько примеров текстов и ожидаемые предсказания (теги) для каждого из них. Это называется обучающими данными . Чем более последовательными и точными будут ваши тренировочные данные, тем лучше будут окончательные прогнозы.

Когда вы обучаете классификатор на основе машинного обучения, обучающие данные должны быть преобразованы во что-то, что может понять машина, то есть векторов (т.е. списки чисел, которые кодируют информацию). Используя векторы, система может извлекать соответствующие функции (фрагменты информации), которые помогут ей учиться на основе существующих данных и делать прогнозы относительно будущих текстов.

Есть несколько способов сделать это, но один из наиболее часто используемых называется векторизацией набора слов . Вы можете узнать больше о векторизации здесь.

После преобразования текстов в векторы они передаются в алгоритм машинного обучения вместе с ожидаемыми результатами для создания модели классификации, которая может выбирать, какие функции лучше всего представляют тексты, и делать прогнозы относительно невидимых текстов:

Обученная модель преобразует невидимый текст в вектор, извлекает его соответствующие функции и делает прогноз:

Алгоритмы машинного обучения

В классификации текста используется множество алгоритмов машинного обучения.Наиболее часто используются семейство алгоритмов Naive Bayes (NB) , Support Vector Machines (SVM) и алгоритмы глубокого обучения.

Семейство наивных байесовских алгоритмов основано на теореме Байеса и условных вероятностях появления слов образца текста в словах набора текстов, принадлежащих данному тегу. Векторы, которые представляют тексты, кодируют информацию о том, насколько вероятно, что слова в тексте встречаются в текстах данного тега.С помощью этой информации можно вычислить вероятность принадлежности текста любому заданному тегу в модели. Как только все вероятности будут вычислены для входного текста, модель классификации вернет тег с наибольшей вероятностью в качестве выходных данных для этого ввода.

Одним из основных преимуществ этого алгоритма является то, что результаты могут быть неплохими, даже если данных для обучения немного.

Машины опорных векторов (SVM) — это алгоритм, который может разделить векторное пространство размеченных текстов на два подпространства: одно пространство, содержащее большинство векторов, принадлежащих данному тегу, и другое подпространство, содержащее большинство векторов, не принадлежащих данному тегу. принадлежат этому одному тегу.

Модели классификации, использующие SVM в своей основе, будут преобразовывать тексты в векторы и определять, к какой стороне границы, разделяющей векторное пространство для данного тега, принадлежат эти векторы. В зависимости от того, где они приземляются, модель будет знать, принадлежат ли они данному тегу или нет.

Наиболее важным преимуществом использования SVM является то, что результаты обычно лучше, чем результаты, полученные с помощью наивного байесовского метода. Однако для SVM требуется больше вычислительных ресурсов.

Глубокое обучение — это набор алгоритмов и методов, которые используют «искусственные нейронные сети» для обработки данных так же, как это делает человеческий мозг.Эти алгоритмы используют огромные объемы обучающих данных (миллионы примеров) для создания семантически богатых представлений текстов, которые затем могут быть загружены в модели на основе машинного обучения различных типов, которые будут делать гораздо более точные прогнозы, чем традиционные модели машинного обучения:

Гибридный Системы

Гибридные системы обычно содержат системы на основе машинного обучения в своей основе и системы на основе правил для улучшения прогнозов

Оценка

Производительность классификатора обычно оценивается с помощью стандартных показателей, используемых в области машинного обучения: точность , точность , отзывают , а F1 оценивают .Понимание того, что они означают, даст вам более четкое представление о том, насколько хорошо ваши классификаторы анализируют ваши тексты.

Также важно понимать, что оценка может выполняться по фиксированному набору тестов (т. е. набору текстов, для которых мы знаем ожидаемые выходные теги) или с использованием перекрестной проверки (т. е. метода, который разделяет ваши обучающие данные). в разные складки, чтобы вы могли использовать некоторые подмножества ваших данных в целях обучения, а некоторые — в целях тестирования, см. ниже).

Точность, точность, отзыв и оценка F1

Точность — это количество правильных прогнозов, сделанных классификатором, деленное на общее количество прогнозов. В общем, точность сама по себе не является хорошим показателем производительности. Например, когда категории несбалансированы, то есть когда одна категория содержит гораздо больше примеров, чем все остальные, предсказание того, что все тексты принадлежат этой категории, будет возвращать высокие уровни точности. Это известно как парадокс точности.Чтобы получить лучшее представление о производительности классификатора, вы можете вместо этого рассмотреть точность и полноту.

Точность указывает, сколько текстов было предсказано правильно из тех, которые были предсказаны как принадлежащие данному тегу. Другими словами, точность берет количество текстов, которые были правильно предсказаны как положительные для данного тега, и делит его на количество текстов, которые были предсказаны (правильно и неправильно) как принадлежащие тегу.

Мы должны иметь в виду, что точность дает информацию только о тех случаях, когда классификатор предсказывает, что текст принадлежит данному тегу.Это может быть особенно важно, например, если вы хотите генерировать автоматические ответы на сообщения пользователей. В этом случае, прежде чем отправлять автоматический ответ, вы хотите быть уверены, что отправляете правильный ответ, верно? Другими словами, если ваш классификатор говорит, что пользовательское сообщение принадлежит к определенному типу сообщений, вы хотели бы, чтобы классификатор сделал правильное предположение. Это означает, что вам нужна высокая точность для этого типа сообщения.

Recall указывает, сколько текстов было предсказано правильно из тех, которые должны были быть предсказаны как принадлежащие данному тегу.Другими словами, отзыв берет количество текстов, которые были правильно предсказаны как положительные для данного тега, и делит его на количество текстов, которые были либо правильно предсказаны как принадлежащие тегу, либо неверно предсказаны как не принадлежащие тегу.

Отзыв может оказаться полезным, например, при перенаправлении обращений в службу поддержки соответствующей команде. Может быть желательно, чтобы автоматизированная система обнаруживала как можно больше заявок по критической метке (например, заявки о «Нарушениях / простоях» ) за счет некоторых неверных прогнозов на этом пути.В этом случае прогнозирование поможет выполнить начальную маршрутизацию и решить большинство этих критических проблем как можно скорее. Если прогноз неверен, билет будет перенаправлен членом команды. При обработке тысяч заявок в неделю высокий уровень отзыва (конечно, с хорошим уровнем точности) может сэкономить команде поддержки много времени и позволить им быстрее решать критические проблемы.

Результат F1 — это гармоничное средство точности и отзыва. Он сообщает вам, насколько хорошо работает ваш классификатор, если одинаковое значение придается точности и полноте.В целом, оценка F1 является гораздо лучшим показателем эффективности классификатора, чем точность.

Перекрестная проверка

Перекрестная проверка довольно часто используется для оценки производительности текстовых классификаторов. Метод прост. Прежде всего, обучающий набор данных случайным образом разбивается на несколько подмножеств одинаковой длины (например, 4 подмножества с 25% исходных данных в каждом). Затем все подмножества, кроме одного, используются для обучения классификатора (в данном случае 3 подмножества с 75% исходных данных), и этот классификатор используется для прогнозирования текстов в оставшемся подмножестве.Затем вычисляются все показатели производительности (то есть точность, точность, полнота, F1 и т. д.). Наконец, процесс повторяется с новой проверочной складкой до тех пор, пока все складки не будут использованы для целей тестирования.

После использования всех складок вычисляются средние показатели производительности, и процесс оценки завершается.

Извлечение текста относится к процессу распознавания структурированных фрагментов информации из неструктурированного текста. Например, может быть полезно автоматически определять наиболее релевантные ключевые слова из фрагмента текста, определять названия компаний в новостной статье, определять арендодателей и арендаторов в финансовых контрактах или определять цены в описаниях продуктов.

Регулярные выражения

Регулярные выражения (также известные как регулярные выражения) работают как эквивалент правил, определенных в задачах классификации. В этом случае регулярное выражение определяет шаблон символов, который будет связан с тегом.

Например, приведенный ниже шаблон обнаружит большинство адресов электронной почты в тексте, если перед ними стоят пробелы:

(?i)\b(?:[a-zA-Z0-9_-.]+)@( ?:(?:[[0-9]{1,3}.[0-9]{1,3}.[0-9]{1,3}.)|(?:(?:[a- zA-Z0-9-]+.)+))(?:[a-zA-Z]{2,4}|[0-9]{1,3})(?:]?)\b

Обнаружив это совпадение в текстах и ​​назначив ему тег электронной почты , мы можем создать элементарный экстрактор адресов электронной почты.

У такого подхода есть очевидные плюсы и минусы. С положительной стороны, вы можете быстро создавать экстракторы текста, и полученные результаты могут быть хорошими, если вы можете найти правильные шаблоны для типа информации, которую хотите обнаружить. С другой стороны, регулярные выражения могут стать чрезвычайно сложными, и их может быть очень трудно поддерживать и масштабировать, особенно когда требуется много выражений для извлечения желаемых шаблонов.

Условные случайные поля

Условные случайные поля (CRF) — это статистический подход, часто используемый при извлечении текста на основе машинного обучения.Этот подход изучает шаблоны, которые необходимо извлечь, взвешивая набор характеристик последовательностей слов, которые появляются в тексте. Используя CRF, мы можем добавить несколько переменных, которые зависят друг от друга, к шаблонам, которые мы используем для обнаружения информации в текстах, такой как синтаксическая или семантическая информация.

Это обычно создает гораздо более богатые и сложные шаблоны, чем использование регулярных выражений, и потенциально может кодировать гораздо больше информации. Однако для его реализации требуется больше вычислительных ресурсов, поскольку все функции должны быть рассчитаны для всех рассматриваемых последовательностей, и все веса, присвоенные этим функциям, должны быть изучены, прежде чем определять, должна ли последовательность принадлежать тегу. или не.

Одним из основных преимуществ подхода CRF является его способность к обобщению. Как только экстрактор будет обучен с использованием подхода CRF на текстах определенной области, он сможет достаточно хорошо обобщать то, что он изучил, на другие области.

Экстракторы иногда оцениваются путем вычисления тех же стандартных показателей производительности, которые мы объяснили выше для классификации текста, а именно: точность , точность , полнота и оценка F1 .Однако эти показатели не учитывают частичное совпадение шаблонов. Чтобы извлеченный сегмент был действительно положительным для тега, он должен полностью совпадать с сегментом, который должен был быть извлечен.

Рассмотрим следующий пример:

«Ваш рейс вылетает 14 января 2020 г. в 15:30 из SFO» Дата из текста выше, верно? Итак, если бы вывод экстрактора был 14 января 2020 года, мы бы посчитали это истинным положительным результатом для тега DATE .

Но что, если выход экстрактора был 14 января? Можно ли сказать, что экстракция была плохой? Можно ли сказать, что это был ложный положительный результат для тега DATE ? Для захвата частичных совпадений, подобных этому, можно использовать некоторые другие показатели производительности для оценки производительности экстракторов. Одним из примеров этого является семейство метрик ROUGE.

ROUGE (Recall-Oriented Understudy for Gisting Evaluation) — это семейство показателей, используемых в области машинного перевода и автоматического суммирования, которые также можно использовать для оценки производительности средств извлечения текста.Эти метрики в основном вычисляют длину и количество последовательностей, которые перекрываются между исходным текстом (в данном случае нашим исходным текстом) и переведенным или резюмированным текстом (в данном случае нашим извлечением).

В зависимости от длины единиц, перекрытие которых вы хотите сравнить, вы можете определить метрику ROUGE-n (для единиц длины n ) или вы можете определить метрику ROUGE-LCS или ROUGE-L, если вы собираетесь сравнить самую длинную общую последовательность (LCS).

4. Визуализируйте свои текстовые данные

Теперь вы знаете множество методов анализа текста для разбивки ваших данных, но что вы делаете с результатами? Инструменты бизнес-аналитики (BI) и визуализации данных позволяют легко понять ваши результаты на ярких информационных панелях.

MonkeyLearn Studio — это универсальный инструмент для сбора, анализа и визуализации данных. Методы машинного обучения с глубоким обучением позволяют выбирать необходимые анализы текста (извлечение ключевых слов, анализ тональности, классификация аспектов и т. д.) и связывать их вместе для одновременной работы.

Вы сразу поймете важность текстовой аналитики. Просто загрузите свои данные и визуализируйте результаты, чтобы получить ценную информацию. Все это работает вместе в едином интерфейсе, так что вам больше не придется загружать и скачивать между приложениями.

Бесплатный инструмент визуализации Google позволяет создавать интерактивные отчеты с использованием самых разных данных. После импорта данных вы можете использовать различные инструменты для разработки отчета и превращения ваших данных в впечатляющую наглядную историю. Делитесь результатами с отдельными пользователями или группами, публикуйте их в Интернете или встраивайте на свой веб-сайт.

Looker — это платформа для анализа бизнес-данных, предназначенная для предоставления значимых данных любому сотруднику компании. Идея состоит в том, чтобы позволить командам получить более полную картину того, что происходит в их компании.

Вы можете подключаться к различным базам данных и автоматически создавать модели данных, которые можно полностью настроить в соответствии с конкретными потребностями. Посмотрите здесь, чтобы начать.

Tableau — это инструмент бизнес-аналитики и визуализации данных с интуитивно понятным и удобным подходом (не требует технических навыков). Tableau позволяет организациям работать практически с любым существующим источником данных и предоставляет мощные возможности визуализации с более продвинутыми инструментами для разработчиков.

Для всех желающих доступна пробная версия.Узнайте, как выполнять анализ текста в Tableau.

Приложения и примеры анализа текста

Знаете ли вы, что 80% бизнес-данных — это текст? Текст присутствует в каждом крупном бизнес-процессе, от запросов в службу поддержки до отзывов о продуктах и ​​онлайн-взаимодействии с клиентами. Автоматизированный анализ текста в режиме реального времени может помочь вам справиться со всеми этими данными с помощью широкого спектра бизнес-приложений и сценариев использования. Максимизируйте эффективность и сократите количество повторяющихся задач, которые часто сильно влияют на текучесть кадров.Лучше понять мнение клиентов без необходимости сортировать миллионы сообщений в социальных сетях, онлайн-обзоров и ответов на опросы.

Если вы работаете в сфере взаимодействия с клиентами, продуктов, маркетинга или продаж, существует ряд приложений для анализа текста, позволяющих автоматизировать процессы и получать ценную информацию из реального мира. И самое главное, для этого вам не нужны какие-либо знания в области науки о данных или инженерный опыт.

Мониторинг социальных сетей

Предположим, вы работаете в Uber и хотите знать, что пользователи говорят о бренде.Вы читали положительные и отрицательные отзывы в Twitter и Facebook. Но каждый день отправляется 500 миллионов твитов, а каждый месяц Uber упоминается в социальных сетях тысячами. Можете ли вы представить себе анализ их всех вручную?

Здесь вступает в действие анализ тональности, чтобы проанализировать мнение о заданном тексте. Анализируя упоминания в социальных сетях с помощью модели анализа настроений, вы можете автоматически классифицировать их по категориям: Положительные , Нейтральные или Отрицательные .Затем пропустите их через анализатор тем, чтобы понять тему каждого текста. Выполняя анализ настроений на основе аспектов, вы можете автоматически определять причины положительных или отрицательных упоминаний и получать такие сведения, как:

  • Самая популярная жалоба на Uber в социальных сетях?
  • Уровень успеха службы поддержки клиентов Uber: люди довольны или их это раздражает?
  • Что пользователям Uber нравится в этой услуге, когда они упоминают Uber в положительном ключе?

Предположим, вы только что добавили новую услугу в Uber.Например, Uber Eats. Это решающий момент, и ваша компания хочет знать, что люди говорят о Uber Eats, чтобы вы могли как можно скорее исправить любые сбои и улучшить лучшие функции. Вы также можете использовать анализ настроений на основе аспектов в своих профилях Facebook, Instagram и Twitter для любых упоминаний Uber Eats и узнавать такие вещи, как:

  • До сих пор люди довольны Uber Eats?
  • Что нужно срочно исправить?
  • Как мы можем включить положительные истории в нашу маркетинговую и PR-коммуникацию?

Вы можете использовать анализ текста не только для отслеживания упоминаний вашего бренда в социальных сетях, но и для отслеживания упоминаний ваших конкурентов.Клиент жалуется на услуги конкурента? Это дает вам возможность привлечь потенциальных клиентов и показать им, насколько лучше ваш бренд.

Мониторинг бренда

Следите за комментариями о вашем бренде в режиме реального времени, где бы они ни появлялись (социальные сети, форумы, блоги, обзорные сайты и т. д.). Вы сразу поймете, когда возникнет что-то негативное, и сможете использовать положительные комментарии в свою пользу.

Сила отрицательных отзывов довольно велика: 40% потребителей отказываются от покупки, если у компании есть отрицательные отзывы.Разгневанный клиент, жалующийся на плохое обслуживание клиентов, может распространиться со скоростью лесного пожара в течение нескольких минут: друг поделится этим, затем еще один, затем еще… И прежде чем вы это узнаете, негативные комментарии станут вирусными.

  • Узнайте, как со временем меняется репутация вашего бренда.
  • Сравните репутацию вашего бренда с репутацией вашего конкурента.
  • Определите, какие аспекты наносят ущерб вашей репутации.
  • Определите, какие элементы повышают репутацию вашего бренда в онлайн-СМИ.
  • Определите потенциальные PR-кризисы, чтобы справиться с ними как можно скорее.
  • Настройтесь на данные в определенный момент, например, в день запуска нового продукта или подачи заявки на IPO. Просто проведите анализ настроений в социальных сетях и упоминаниях в прессе в тот день, чтобы узнать, что люди говорили о вашем бренде.
  • Сделайте репост положительного упоминания вашего бренда, чтобы о нем узнали.

Служба поддержки клиентов

Несмотря на опасения и ожидания многих людей, анализ текста не означает, что служба поддержки клиентов будет полностью автоматизирована.Это просто означает, что предприятия могут оптимизировать процессы, чтобы команды могли тратить больше времени на решение проблем, требующих взаимодействия с человеком. Таким образом, компании смогут увеличить удержание, учитывая, что 89% клиентов меняют бренды из-за плохого обслуживания клиентов. Но как анализ текста может помочь обслуживанию клиентов вашей компании?

Маркировка билетов

Позвольте машинам сделать всю работу за вас. Анализ текста автоматически определяет темы и помечает каждую заявку. Вот как это работает:

  • Модель анализирует язык и выражения на языке клиента, например, «Я не получил правильный заказ.”
  • Затем он сравнивает его с другими подобными разговорами.
  • Наконец, он находит совпадение и автоматически помечает билет. В этом случае он может быть под тегом Проблемы с доставкой .

Это происходит автоматически при поступлении нового тикета, освобождая агентов по работе с клиентами, чтобы они могли сосредоточиться на более важных задачах.

Маршрутизация и сортировка заявок: поиск подходящего человека для работы

Машинное обучение может считывать в заявке тему или срочность и автоматически направлять ее соответствующему отделу или сотруднику.

Например, для SaaS-компании, которая получает тикет клиента с просьбой о возмещении, система интеллектуального анализа текста определит, какая группа обычно занимается вопросами выставления счетов, и отправит им тикет. Если в тикете написано что-то вроде «Как я могу интегрировать ваш API с python?» , он попадет прямо к команде, отвечающей за помощь с интеграциями.

Билетная аналитика: узнайте больше от своих клиентов

Что обычно оценивается для определения эффективности работы группы обслуживания клиентов? Общие KPI: время первого ответа , среднее время до разрешения (т.е. сколько времени требуется вашей команде для решения проблем) и удовлетворенность клиентов (CSAT). И, давайте смотреть правде в глаза, общая удовлетворенность клиентов во многом связана с первыми двумя показателями.

Но как мы можем получить актуальную информацию о CSAT из разговоров с клиентами? Как мы можем определить, доволен ли клиент тем, как была решена проблема? Или если они выразили недовольство решением проблемы?

В этой ситуации можно использовать анализ настроений на основе аспектов. Этот тип анализа текста исследует чувства и темы, стоящие за словами на различных каналах поддержки, таких как заявки в службу поддержки, разговоры в чатах, электронные письма и опросы CSAT.Модель анализа текста может понимать слова или выражения для определения взаимодействия со службой поддержки как Положительное , Отрицательное или Нейтральное , понимать, что было упомянуто (например, Служба или UI/UX ), и даже определять настроения за словами (например, Печаль , Гнев и т. д.).

Обнаружение срочности: приоритетность срочных заявок

«С чего начать?» — вопрос, который часто задают себе представители службы поддержки клиентов.Срочность, безусловно, является хорошей отправной точкой, но как определить уровень срочности, не тратя драгоценное время на размышления?

Программное обеспечение для анализа текста может определить уровень срочности заявки клиента и соответствующим образом пометить ее. Заявки в службу поддержки со словами и выражениями, обозначающими срочность, например «как можно скорее» или «немедленно» , должным образом помечаются как Priority .

Чтобы увидеть, как работает анализ текста для определения срочности, ознакомьтесь с демонстрационной моделью MonkeyLearn для определения срочности.

Голос клиента (VoC) и обратная связь с клиентом

После того, как вы приобрели клиента, его удержание имеет ключевое значение, поскольку привлечение новых клиентов обходится в 5-25 раз дороже, чем удержание уже имеющихся. Вот почему пристальное внимание к голосу клиента может дать вашей компании четкое представление об уровне удовлетворенности клиента и, следовательно, об удержании клиентов. Кроме того, это может дать вам полезную информацию для определения приоритетов дорожной карты продукта с точки зрения клиента.

Анализ ответов NPS

Возможно, у вашего бренда уже есть опрос удовлетворенности клиентов, наиболее распространенным из которых является Net Promoter Score (NPS). В этом опросе задается вопрос «Насколько вероятно, что вы порекомендуете [бренд] другу или коллеге?» . Ответ представляет собой оценку от 0 до 10, и результат делится на три группы: промоутеров , пассивных и недоброжелателей .

Но здесь начинается сложная часть: в конце есть открытый дополнительный вопрос ‘Почему вы выбрали оценку X?’ Ответ может дать вашей компании бесценную информацию.Без текста вам остается только догадываться, что пошло не так. А теперь, благодаря текстовому анализу, вам больше не нужно читать эти открытые ответы вручную.

Вы можете сделать то же, что и Promoter.io: извлечь основные ключевые слова из отзывов ваших клиентов, чтобы понять, что хвалят или критикуют в отношении вашего продукта. Упоминается ли ключевое слово «Продукт» главным образом промоутерами или критиками? С помощью этой информации вы сможете использовать свое время, чтобы получить максимальную отдачу от ответов NPS и начать действовать.

Другой вариант — следовать по стопам Retently, используя текстовый анализ, чтобы классифицировать ваши отзывы по различным темам, таким как Поддержка клиентов, Дизайн продукта, и Характеристики продукта, , а затем анализировать каждый тег с помощью анализа настроений, чтобы увидеть, как положительно или отрицательно клиенты прочувствовать каждую тему. Теперь они знают, что находятся на правильном пути с дизайном продукта, но им еще предстоит поработать над функциями продукта.

Анализ опросов клиентов

Есть ли в вашей компании другая система опросов клиентов? Если это система подсчета очков или закрытые вопросы, проанализировать ответы будет проще простого: просто посчитайте числа.

Однако, если у вас есть опрос с открытым текстом, независимо от того, предоставляется ли он по электронной почте или представляет собой онлайн-форму, вы можете отказаться от ручной пометки каждого отдельного ответа, позволив анализу текста сделать всю работу за вас. Помимо экономии времени, вы также можете использовать согласованные критерии тегирования без ошибок, 24 часа в сутки, 7 дней в неделю.

Бизнес-аналитика

Анализ данных лежит в основе любой операции бизнес-аналитики. Теперь, что может сделать компания, чтобы понять, например, тенденции продаж и производительность с течением времени? С помощью числовых данных команда BI может определить, что происходит (например, продажи X снижаются), но не почему .Цифры легко анализировать, но они также несколько ограничены. Текстовые данные, с другой стороны, являются наиболее распространенным форматом деловой информации и могут предоставить вашей организации ценную информацию о ваших операциях. Анализ текста с помощью машинного обучения может автоматически анализировать эти данные для немедленного понимания.

Например, вы можете запустить извлечение ключевых слов и анализ тональности ваших упоминаний в социальных сетях, чтобы понять, на что люди жалуются в отношении вашего бренда.

Вы также можете запустить анализ настроений на основе аспектов отзывов клиентов, в которых упоминается плохое качество обслуживания клиентов. В конце концов, 67% потребителей называют плохой клиентский опыт одной из основных причин оттока. Может быть, это плохая поддержка, неисправная функция, неожиданное время простоя или внезапное изменение цены. Анализ отзывов клиентов может пролить свет на детали, и команда может принять соответствующие меры.

А как насчет ваших конкурентов? О чем говорят их отзывы? Пропустите их через свою модель анализа текста и посмотрите, что они делают правильно, а что неправильно, и улучшите свой собственный процесс принятия решений.

Продажи и маркетинг

Поиск потенциальных клиентов — самая сложная часть процесса продаж. И становится все тяжелее и тяжелее. Отдел продаж всегда хочет заключать сделки, что требует повышения эффективности процесса продаж. Но 27% торговых агентов тратят более часа в день на ввод данных вместо продажи, а это означает, что критически важное время уходит на административную работу, а не на закрытие сделок.

Текстовый анализ снимает тяжелую работу с ручными задачами по продажам, включая:

  • Обновление статуса сделки на «Не заинтересован» в CRM.
  • Оценка потенциальных клиентов на основе описания компании.
  • Выявление лидов в социальных сетях, выражающих покупательское намерение.

GlassDollar, компания, которая связывает учредителей с потенциальными инвесторами, использует текстовый анализ для поиска наиболее качественных совпадений. Как? Они используют текстовый анализ для классификации компаний, используя их описания компаний. Результаты, достижения? Они сэкономили себе дни ручной работы, а после обучения модели классификации текста прогнозы были точными на 90%.Вы можете узнать больше об их опыте работы с MonkeyLearn здесь.

Анализ текста может не только автоматизировать ручные и утомительные задачи, но и улучшить вашу аналитику, чтобы сделать воронки продаж и маркетинга более эффективными. Например, вы можете автоматически анализировать ответы на ваши электронные письма и разговоры о продажах, чтобы понять, скажем, падение продаж:

  • Что мешает завершить сделку?
  • Что вызывает интерес у клиента?
  • Что беспокоит клиентов?

Теперь представьте, что цель вашего отдела продаж — нацелиться на новый сегмент для вашего SaaS: людей старше 40 лет.Первое впечатление — продукт им не нравится, но почему ? Просто отфильтруйте разговоры о продажах этой возрастной группы и запустите их в своей модели анализа текста. Команды по продажам могли бы принимать более обоснованные решения, используя углубленный анализ текстов разговоров с клиентами.

Наконец, вы можете использовать машинное обучение и анализ текста, чтобы в целом улучшить процесс продаж. Например, Drift, маркетинговая диалоговая платформа, интегрировала MonkeyLearn API, чтобы позволить получателям автоматически отказываться от электронных писем о продажах в зависимости от того, как они отвечают.

Пришло время увеличить продажи и перестать тратить драгоценное время на лиды, которые никуда не уходят. Xeneta, морская грузовая компания, разработала алгоритм машинного обучения и обучила его определять, какие компании являются потенциальными клиентами, на основе описаний компаний, собранных с помощью FullContact (компания SaaS, в которой есть описания миллионов компаний).

Вы можете сделать то же самое или нацелить пользователей, которые посещают ваш веб-сайт, на:

  • Получить информацию о том, где работают потенциальные клиенты, используя такой сервис, как Clearbit, и классифицировать компанию в соответствии с ее типом бизнеса, чтобы увидеть, является ли это возможным лидом.
  • Извлекайте информацию, чтобы легко узнать должность пользователя, компанию, в которой он работает, тип ее бизнеса и другую важную информацию.
  • Сосредоточьтесь на наиболее подходящих лидах и сэкономьте время на их фактическом поиске: торговые представители автоматически получат информацию и сразу же начнут работать с потенциальными клиентами.

Product Analytics

Предположим, у вашего стартапа есть приложение в магазине Google Play. Вы получаете необычайно негативные комментарии.В чем дело?

Вы можете узнать, что происходит за считанные минуты, используя модель анализа текста, которая группирует отзывы по разным тегам, таким как Простота использования и Интеграция. Затем пропустите их через модель анализа настроений, чтобы узнать, говорят ли клиенты о продуктах положительно или отрицательно. Наконец, с помощью MonkeyLearn Studio можно создавать графики и отчеты для визуализации и определения приоритетности проблем с продуктом.

Мы сделали это с отзывами о Slack на сайте обзоров продуктов Capterra и получили довольно интересные сведения.Вот как:

  • Мы проанализировали отзывы с помощью анализа настроений на основе аспектов и разделили их на основные темы и настроения.

  • Мы извлекли ключевые слова с помощью экстрактора ключевых слов, чтобы понять, почему отзывы, помеченные тегом «Производительность-качество-надежность» , имеют тенденцию быть отрицательными.

Ресурсы для анализа текста

Существует ряд ценных ресурсов, которые помогут вам начать работу со всеми возможностями анализа текста.

API-интерфейсы анализа текста

Вы можете использовать библиотеки с открытым исходным кодом или API-интерфейсы SaaS для создания решения для анализа текста, которое соответствует вашим потребностям. Библиотеки с открытым исходным кодом требуют много времени и технических ноу-хау, в то время как инструменты SaaS часто можно сразу же запустить в работу и практически не требуют опыта программирования.

Библиотеки с открытым исходным кодом
Python

Python является наиболее широко используемым языком в научных вычислениях, и точка. Такие инструменты, как NumPy и SciPy, зарекомендовали себя как быстрый динамический язык, который вызывает библиотеки C и Fortran там, где требуется производительность.

Эти вещи в сочетании с процветающим сообществом и разнообразным набором библиотек для реализации моделей обработки естественного языка (NLP) сделали Python одним из наиболее предпочтительных языков программирования для анализа текста.

NLTK

NLTK, Natural Language Toolkit, является лучшей в своем классе библиотекой для задач анализа текста. NLTK используется во многих университетских курсах, поэтому с его помощью написано много кода, и нет недостатка в пользователях, знакомых как с библиотекой, так и с теорией НЛП, которые могут помочь ответить на ваши вопросы.

SpaCy

SpaCy — это промышленная статистическая библиотека НЛП. Помимо обычных функций, он добавляет интеграцию с глубоким обучением и модели сверточной нейронной сети для нескольких языков.

В отличие от NLTK, которая является исследовательской библиотекой, SpaCy стремится быть проверенной в реальных условиях библиотекой промышленного класса для анализа текста.

Scikit-learn

Scikit-learn — это полный и зрелый инструментарий машинного обучения для Python, построенный на основе NumPy, SciPy и matplotlib, что обеспечивает ему невероятную производительность и гибкость для построения моделей анализа текста.

TensorFlow

Разработанная Google, TensorFlow на сегодняшний день является наиболее широко используемой библиотекой для распределенного глубокого обучения. Глядя на этот график, мы видим, что TensorFlow опережает конкурентов:

PyTorch

PyTorch — это платформа глубокого обучения, созданная Facebook и специально предназначенная для глубокого обучения. PyTorch — это библиотека, ориентированная на Python, которая позволяет вам определять большую часть архитектуры вашей нейронной сети с точки зрения кода Python и внутренне работает только с низкоуровневым высокопроизводительным кодом.

Keras

Keras — широко используемая библиотека глубокого обучения, написанная на Python. Он предназначен для быстрой итерации и экспериментов с глубокими нейронными сетями, а в качестве библиотеки Python он исключительно удобен для пользователя.

Важной особенностью Keras является то, что он предоставляет то, что по сути является абстрактным интерфейсом для глубоких нейронных сетей. Реальные сети могут работать поверх Tensorflow, Theano или других бэкэндов. Эта независимость от серверной части делает Keras привлекательным вариантом с точки зрения его долгосрочной жизнеспособности.

Разрешающая лицензия MIT делает ее привлекательной для предприятий, стремящихся разрабатывать собственные модели.

R

R — лучший язык для любой статистической задачи. Его коллекция библиотек (13 711 на момент написания статьи о CRAN) намного превосходит возможности любого другого языка программирования для статистических вычислений и больше, чем во многих других экосистемах. Короче говоря, если вы решите использовать R для чего-либо, связанного со статистикой, вы не будете окажитесь в ситуации, когда вам придется заново изобретать велосипед, не говоря уже о целом стеке.

Caret

Caret — это пакет R, предназначенный для создания полных конвейеров машинного обучения с инструментами для всего: от приема и предварительной обработки данных, выбора функций и автоматической настройки модели.

mlr

Проект Machine Learning in R (сокращенно mlr) предоставляет полный набор инструментов машинного обучения для языка программирования R, который часто используется для анализа текста.

Java

Java не нуждается в представлении. Язык может похвастаться впечатляющей экосистемой, которая выходит за рамки самой Java и включает в себя библиотеки других языков JVM, таких как Scala и Clojure.Кроме того, JVM проверена в боевых условиях, на разработку и настройку производительности ушли тысячи человеко-лет, так что Java, скорее всего, даст вам лучшую в своем классе производительность для всей вашей работы по анализу текста НЛП.

CoreNLP

Стэнфордский проект CoreNLP предоставляет испытанный в боевых условиях, активно поддерживаемый инструментарий НЛП. Хотя он написан на Java, у него есть API для всех основных языков, включая Python, R и Go.

OpenNLP

Проект Apache OpenNLP — это еще один инструментарий машинного обучения для NLP.Его можно использовать с любого языка на платформе JVM.

Weka

Weka — это Java-библиотека для машинного обучения под лицензией GPL, разработанная в Университете Вайкато в Новой Зеландии. В дополнение к обширному набору API-интерфейсов машинного обучения Weka имеет графический пользовательский интерфейс под названием Explorer , который позволяет пользователям интерактивно разрабатывать и изучать свои модели.

Weka поддерживает прямое извлечение данных из баз данных SQL, а также глубокое обучение с помощью среды deeplearning4j.

SaaS API

Использование SaaS API для анализа текста имеет много преимуществ:

Большинство инструментов SaaS представляют собой простые решения plug-and-play без необходимости установки библиотек и новой инфраструктуры.

API-интерфейсы SaaS предоставляют готовые к использованию решения. Вы даете им данные, и они возвращают анализ. Все остальные проблемы — производительность, масштабируемость, ведение журналов, архитектура, инструменты и т. д. — перекладываются на сторону, ответственную за поддержку API.

Часто достаточно написать несколько строк кода, чтобы вызвать API и получить результаты.

API-интерфейсы SaaS обычно предоставляют готовые интеграции с инструментами, которые вы, возможно, уже используете. Это позволит вам создать действительно решение без кода. Узнайте, как интегрировать анализ текста с Google Таблицами.

Некоторые из наиболее известных решений SaaS и API для анализа текста включают: Инструмент анализа текста SaaS?

Создание собственного программного обеспечения с нуля может быть эффективным и полезным, если у вас есть многолетний опыт работы с данными и инженерными разработками, но это требует много времени и может стоить сотни тысяч долларов.

Инструменты SaaS, с другой стороны, — отличный способ сразу же погрузиться в работу. Они могут быть простыми, простыми в использовании и такими же мощными, как создание собственной модели с нуля. MonkeyLearn — это платформа анализа текста SaaS с десятками предварительно обученных моделей. Или вы можете настроить свои собственные, часто всего за несколько шагов, чтобы получить такие же точные результаты. Все без опыта программирования.

Наборы обучающих данных

Если вы поговорите с любым профессионалом в области обработки данных, он скажет вам, что истинным узким местом в построении лучших моделей являются не новые и лучшие алгоритмы, а больше данных.

Действительно, в машинном обучении данные играют решающую роль: простая модель, учитывая тонны данных, скорее всего, превзойдет ту, которая использует все приемы, описанные в книге, чтобы превратить каждый бит обучающих данных в осмысленный ответ.

Итак, вот несколько высококачественных наборов данных, которые вы можете использовать для начала:

Тематическая классификация
  • Набор данных новостей Reuters: один из самых популярных наборов данных для классификации текста; в нем есть тысячи статей от Reuters, помеченных 135 категориями в соответствии с их темами, такими как политика, экономика, спорт и бизнес.

  • 20 Группы новостей: очень известный набор данных, содержащий более 20 тысяч документов по 20 различным темам.

Анализ настроений
  • Обзоры продуктов: набор данных с миллионами отзывов покупателей о продуктах на Amazon.

  • Мнения авиакомпаний Twitter на Kaggle: еще один широко используемый набор данных для начала работы с анализом настроений. Он содержит более 15 000 твитов об авиакомпаниях (помеченных как положительные, нейтральные или отрицательные).

  • Первые дебаты Республиканской партии Twitter Sentiment: еще один полезный набор данных с более чем 14 000 помеченных твитов (позитивных, нейтральных и негативных) из первых дебатов Республиканской партии в 2016 году.

Другие популярные наборы данных содержит 4601 письмо, помеченное как спам, а не спам.

  • Сбор SMS-спама: еще один набор данных для обнаружения спама. Он содержит более 5 тысяч SMS-сообщений, помеченных как спам, а не спам.

  • Ненавистнические высказывания и оскорбительные выражения: набор данных с более чем 24 тысячами твитов с тегами, сгруппированными по трем тегам: чистота, ненавистнические высказывания и оскорбительные выражения.

  • Поиск объемных и качественных обучающих наборов данных является наиболее важной частью анализа текста, более важной, чем выбор языка программирования или инструментов для создания моделей. Помните, что лучше всего спроектированный конвейер машинного обучения бесполезен, если его модели подкреплены ненадежными данными.

    Учебники по анализу текста

    Лучший способ учиться — это делать.

    Во-первых, мы рассмотрим учебные пособия для конкретных языков программирования, используя инструменты с открытым исходным кодом для анализа текста.Это поможет вам глубже понять доступные инструменты для выбранной вами платформы.

    Затем мы рассмотрим пошаговое руководство по MonkeyLearn, чтобы вы могли сразу приступить к анализу текста.

    Учебники с использованием библиотек с открытым исходным кодом

    В этом разделе мы рассмотрим различные учебные пособия по анализу текста на основных языках программирования для машинного обучения, которые мы перечислили выше.

    Python
    NLTK

    Официальная книга NLTK — это полный ресурс, который учит вас NLTK от начала до конца.Кроме того, справочная документация является полезным ресурсом для консультаций во время разработки.

    Другие полезные руководства включают в себя:

    SpaCy

    spaCy 101: все, что вам нужно знать: часть официальной документации, это руководство показывает вам все, что вам нужно знать, чтобы начать использовать SpaCy.

    В этом руководстве показано, как создать конвейер WordNet с помощью SpaCy.

    Кроме того, имеется официальная документация по API, объясняющая архитектуру и API SpaCy.

    Если вы предпочитаете подробный текст, есть несколько книг о SpaCy или о нем:

    Scikit-learn

    Официальная документация scikit-learn содержит ряд руководств по основам использования scikit-learn, построению пайплайнов и оценка оценщиков.

    Учебное пособие по Scikit-learn: Машинное обучение в Python показывает, как использовать scikit-learn и Pandas для изучения набора данных, его визуализации и обучения модели.

    Для читателей, предпочитающих книги, есть несколько вариантов:

    Keras

    Официальный веб-сайт Keras содержит обширный API, а также учебную документацию.Для читателей, предпочитающих длинные тексты, книга «Глубокое обучение с Керасом» является полезным ресурсом. В книге используются примеры из реального мира, чтобы дать вам четкое представление о Керасе.

    Другие учебные пособия:

    • Практическая классификация текста с помощью Python и Keras: в этом учебном пособии реализуется модель анализа тональности с использованием Keras и рассказывается, как обучать, оценивать и улучшать эту модель.

    • Текстовая классификация в Keras: в этой статье создается простой текстовый классификатор на основе набора данных новостей Reuters.Он классифицирует текст статьи по ряду категорий, таких как спорт, развлечения и технологии.

    TensorFlow

    Учебное пособие по TensorFlow для начинающих знакомит с математикой, лежащей в основе TensorFlow, и включает примеры кода, которые запускаются в браузере и идеально подходят для исследования и обучения. Цель урока — классифицировать уличные знаки.

    Книга «Практическое машинное обучение с помощью Scikit-Learn и TensorFlow» поможет вам получить интуитивное представление о машинном обучении с помощью TensorFlow и scikit-learn.

    Наконец, официальное руководство по началу работы с TensorFlow.

    PyTorch

    Официальное руководство по началу работы от PyTorch знакомит с основами PyTorch. Если вас интересует что-то более практичное, ознакомьтесь с этим руководством по чат-боту; в нем показано, как создать чат-бота с помощью PyTorch.

    Учебное пособие «Глубокое обучение для НЛП с PyTorch» — это краткое введение в идеи, лежащие в основе глубокого обучения, и их применение в PyTorch.

    Наконец, официальный справочник API объясняет функционирование каждого отдельного компонента.

    R
    Caret

    Краткое введение в пакет Caret показывает, как обучать и визуализировать простую модель. Практическое руководство по машинному обучению в R показывает, как подготовить данные, построить и обучить модель, а также оценить ее результаты. Наконец, у вас есть официальная документация, которая очень полезна для начала работы с Caret.

    mlr

    Для тех, кто предпочитает длинные тексты, на arXiv мы можем найти подробный учебник по mlr. Это больше похоже на книгу, чем на документ, и содержит обширные и подробные примеры кода для использования mlr.

    Java
    CoreNLP

    Если вы заинтересованы в изучении CoreNLP, вам следует ознакомиться с учебным пособием Linguisticsweb.org, в котором объясняется, как быстро приступить к работе и выполнить ряд простых задач NLP из командной строки. Кроме того, в этом руководстве CloudAcademy показано, как использовать CoreNLP и визуализировать его результаты. Вы также можете ознакомиться с этим руководством, посвященным анализу настроений с помощью CoreNLP. Наконец, есть этот учебник по использованию CoreNLP с Python, который полезен для начала работы с этой структурой.

    OpenNLP

    Перво-наперво: официальное руководство Apache OpenNLP должно быть отправная точка. Книга «Укрощение текста» была написана разработчиком OpenNLP и использует структуру, чтобы показать читателю, как реализовать анализ текста. Кроме того, в этом руководстве вы познакомитесь с OpenNLP, включая токенизацию, тегирование частей речи, разбор предложений и разбиение на фрагменты.

    Weka

    В библиотеке Weka есть официальная книга «Интеллектуальный анализ данных: практические инструменты и методы машинного обучения», которая поможет вам освоить Weka.

    Если вы предпочитаете видео тексту, существует также ряд МООК с использованием Weka:

    Учебное пособие по анализу текста с шаблонами MonkeyLearn

    Шаблоны MonkeyLearn — это простая и удобная в использовании платформа, которую вы можете использовать, не добавляя ни одной строки. кода.

    Следуйте приведенному ниже пошаговому руководству, чтобы узнать, как обрабатывать данные с помощью инструментов анализа текста и визуализировать результаты: 

    1. Выберите шаблон для создания рабочего процесса:

     

    2.Загрузите свои данные.

    Мы выбрали шаблон обзора приложения, поэтому используем набор данных отзывов.

    Если у вас нет CSV-файла:

    3. Сопоставьте данные с нужными полями в каждом столбце:

    Поля:

    • created_at: Дата отправки ответа.
    • текст: Текст ответа.
    • оценка: оценка, предоставленная заказчиком.

    4. Назовите свой рабочий процесс:

    5. Подождите, пока MonkeyLearn обработает ваши данные:

    6.Изучите панель управления!

    Инструменты визуализации данных MonkeyLearn позволяют легко понять ваши результаты на ярких информационных панелях. Выявляйте закономерности, тенденции и мгновенно действующую информацию в общих чертах или в мельчайших деталях.

    Вы можете:

    • Фильтровать по теме, настроению, ключевому слову или рейтингу.
    • Поделитесь по электронной почте с другими коллегами.

    Выводы

    Анализ текста больше не является эксклюзивной технической болтовней для инженеров-программистов, имеющих опыт машинного обучения.Он стал мощным инструментом, который помогает предприятиям в любой отрасли получать полезную и действенную информацию из своих текстовых данных. Экономия времени, автоматизация задач и повышение производительности еще никогда не были такими простыми, что позволяет предприятиям избавляться от громоздких задач и помогать своим командам предоставлять более качественные услуги своим клиентам.

    Если вы хотите попробовать анализировать текст, зарегистрируйтесь в MonkeyLearn бесплатно и начните обучать свои собственные классификаторы и экстракторы текста — без необходимости кодирования благодаря нашему удобному интерфейсу и интеграции.

    И взгляните на общедоступную информационную панель MonkeyLearn Studio, чтобы узнать, что визуализация данных может сделать, чтобы увидеть ваши результаты в общих чертах или в мельчайших деталях.

    Свяжитесь с нашей командой, если у вас есть какие-либо сомнения или вопросы по анализу текста и машинному обучению, и мы поможем вам начать работу!

    Новые парадигмы для оценки и нейронного анализа нормализации времени

    Trans Assoc Comput Linguist. Авторская рукопись; Доступно в PMC 2020 мая 19.

    Опубликовано в окончательной редактированной форме AS:

    PMCID: PMC7236559

    NIHMSID: NIHMS1571612

    Школа информации, Университет Аризоны, Тусон, AZ

    * Эти два автора внесли свой вклад в равной степени.

    См. другие статьи в PMC, в которых цитируется опубликованная статья.

    Abstract

    В этой статье представлена ​​первая модель нормализации времени, обученная на корпусе SCATE. В схеме SCATE временные выражения аннотируются как семантическая композиция временных сущностей. Эта новая схема отдает предпочтение подходам машинного обучения, поскольку ее можно рассматривать как задачу семантического анализа. В этой работе мы предлагаем нейронную сеть с несколькими выходами на символьном уровне, которая превосходит предыдущий уровень техники, построенный на схеме TimeML.Чтобы сравнить прогнозы систем, которые следуют как SCATE, так и TimeML, мы представляем новую метрику оценки для временных интервалов. Мы также применяем эту новую метрику для проведения сравнительного анализа аннотаций обеих схем в одном корпусе.

    1. Введение

    Нормализация времени — это задача перевода выражений времени на естественном языке в машиночитаемые формы. Например, выражение три дня назад можно привести к формальному представлению 2017-08-28 в стандарте ISO-8601.Поскольку нормализация времени позволяет размещать объекты и события на временной шкале, это важный шаг для многих задач извлечения информации. С момента первых совместных задач по нормализации времени (Verhagen et al., 2007) интерес к проблеме и разнообразие приложений росли. Например, Лин и др. (2015) используют нормализованные метки времени из электронных медицинских карт, чтобы способствовать наблюдению за пациентами и выявлению потенциальных причин заболевания. Воссен и др. (2016) выявляют многоязычные появления одних и тех же событий в новостях, среди прочего, путем нормализации выражений времени на разных языках с использованием одного и того же стандарта ISO.Фишер и Штретген (2015) извлекают и нормализуют выражения времени из большого корпуса немецкой художественной литературы в качестве отправной точки для глубокого изучения тенденций и моделей использования дат в литературе.

    Ключевым моментом для систем нормализации времени является то, к какому формальному представлению следует нормализовать выражения времени. Наиболее популярной схемой аннотирования нормированных выражений времени является ISO-TimeML (Пустеёвский и др., 2003a; Пустеёвский и др., 2010), но она не может представлять несколько важных типов выражений времени (например,г., ограниченный набор интервалов, например, суббот с 6 марта) , и это нелегко поддается машинному обучению (основанное на правилах HeidelTime (Strötgen et al., 2013) по-прежнему обеспечивает современную производительность ). Бетард и Паркер (2016) предложили альтернативную схему, семантически композиционную аннотацию временных выражений (SCATE), в которой время аннотируется как композиционные временные объекты (), и предположили, что это должно быть более поддающимся машинному обучению. Однако, хотя они построили аннотированный корпус, они не обучали на нем автоматические модели.

    Аннотация выражения Субботы с 6 марта по схеме SCATE.

    Представляем первые модели машинного обучения, обученные на корпусе нормализации времени SCATE. Мы делаем несколько вкладов в этот процесс:

    • Мы вводим новую оценочную метрику для нормализации времени, которая может сравнивать нормализованное время из разных схем аннотации путем измерения перекрытия интервалов на временной шкале.

    • Мы используем новую метрику для сравнения аннотаций SCATE и TimeML в одном и том же корпусе и подтверждаем, что SCATE охватывает более широкий спектр выражений времени.

    • Мы разрабатываем рекуррентную нейронную сеть для обучения нормализации времени в стиле SCATE и показываем, что наша модель превосходит современную HeidelTime (Strötgen et al., 2013).

    • Мы показываем, что наша символьная архитектура нейронной сети с несколькими выходами превосходит как модели на основе слов, так и модели с одним выходом.

    2. Background

    ISO-TimeML (Pustejovsky et al., 2003a; Pustejovsky et al., 2010) является наиболее популярной схемой аннотирования выражений времени.Он аннотирует выражения времени как фразы и назначает нормализацию ISO 8601 (например, 1990-08-15T13:37 или PT24H) в качестве атрибута VALUE нормализованной формы. ISO-TimeML используется в нескольких корпусах, включая TimeBank (Pustejovsky et al., 2003b), WikiWars (Mazur and Dale, 2010), TimeN (Llorens et al., 2012) и общие задачи TempEval (Verhagen et al. , 2007; Верхаген и др., 2010; УзЗаман и др., 2013).

    Однако схема ISO-TimeML имеет несколько недостатков. Во-первых, время, которое совпадает с более чем одной календарной единицей (день, неделя, месяц и т.), такие как суббот с 6 марта (когда задействовано несколько суббот), не могут быть описаны в формате ISO 8601, поскольку они не соответствуют никакому префиксу ГГГГ-ММ-ДДЧЧ:ММ:СС. Во-вторых, каждый раз, когда выражение получает одно VALUE , независимо от диапазона слов композиционная семантика выражения не представлена. Например, в выражениях с прошлой недели и с марта 6 семантика с идентична — найдите интервал между временем привязки ( последняя неделя или 6 марта ) и сейчас.Но ISO-TimeML должен был бы аннотировать эти две фразы независимо, без возможности указать общую часть их семантики. Эти недостатки ISO-TimeML, особенно отсутствие композиционности, затрудняют разработку моделей машинного обучения. Таким образом, в большинстве предшествующих работ применялся подход, основанный на правилах: поиск каждой лексемы выражения времени в лексиконе нормализации, а затем сопоставление этой последовательности лексических элементов с нормализованной формой (Strötgen and Gertz, 2013; Bethard, 2013; Lee et al. др., 2014; Стрётген и Герц, 2015).

    В качестве альтернативы TimeML, вдохновленной предыдущими работами, Шилдер (2004) и Хан и Лави (2004), Бетард и Паркер (2016) предложили семантически композиционную аннотацию временных выражений (SCATE). В схеме SCATE каждое выражение времени аннотируется с точки зрения композиционного объекта времени по интервалам на временной шкале. Пример показан на , где каждая аннотация соответствует формально определенному объекту времени. Например, аннотация над с соответствует оператору Between, который определяет интервал, начинающийся с самого последнего 6 марта и заканчивающийся временем создания документа (DCT).Оператор Between формально определяется как:

    Между([t1,t2):Интервал,[t3,t4):Интервал):Интервал=[t2,t3).

    Схема SCATE может представлять широкий спектр выражений времени и обеспечивает формальное определение семантики каждой аннотации. В отличие от TimeML, SCATE использует структуру графа для захвата композиционной семантики и может представлять выражения времени, которые не выражены смежными фразами. Схема также имеет то преимущество, что ее можно рассматривать как задачу семантического разбора и, следовательно, она больше подходит для подходов машинного обучения.Однако Bethard and Parker (2016) представляют только корпус; они не представляют никаких моделей для семантического разбора.

    3. Метрика оценки на основе интервалов для нормализованного времени

    Прежде чем пытаться построить модели с машинным обучением на основе корпуса SCATE, мы хотели оценить утверждение Бетарда и Паркера (2016) о том, что схема SCATE способна представлять более широкий выбор выражений времени, чем TimeML. Для этого мы предлагаем новую метрику оценки для сравнения нормализаций времени, аннотированных как в формате ISO 8601 TimeML, так и в формате объекта времени SCATE.Эта новая оценка интерпретирует нормализованные аннотации как интервалы на временной шкале и измеряет перекрытие интервалов.

    TimeML Аннотации TIMEX3 (выражение времени) преобразуются в интервалы в соответствии с семантикой ISO 8601 их атрибута value. Так, например, 1989-03-05 преобразуется в интервал [1989-03-05T00:00:00, 1989-03-06T00:00:00), то есть 24-часовой период, начинающийся с первой секунды дня 05 марта 1989 г. и заканчивающийся незадолго до первой секунды дня 06 марта 1989 г.Аннотации SCATE преобразуются в интервалы в соответствии с формальной семантикой каждого объекта с использованием библиотеки, предоставленной Bethard and Parker (2016). Так, например, Next(Year(1985), SimplePeriod(YEARS, 3)), 3 года после 1985 года, преобразуются в [1986-01-01T00:00, 1989-01-01T00:00). Обратите внимание, что с одной аннотацией может быть связано более одного интервала, как в примере суббот с 6 марта . Как только все аннотации были преобразованы в интервалы на временной шкале, мы можем измерить, насколько перекрываются интервалы различных аннотаций.

    Для двух наборов интервалов мы определяем точность интервала, P int , как общую длину интервалов между двумя наборами, деленную на общую длину интервалов в первом наборе. Отзыв интервала, R int определяется как общая длина интервалов, общих между двумя наборами, деленная на общую длину интервалов во втором наборе. Формально:

    IS⋂IH={i∩j:i∈IS∧j∈IH}

    Pint(IS,IH)=∑i∈COMPACT(IS⋂IH)∣i∣∑i∈IS∣i∣

    Rint (IS,IH)=∑i∈COMPACT(IS⋂IH)∣i∣∑i∈∪IH∣i∣

    где I S и I H — наборы интервалов, i j — возможно, пустой интервал, общий между интервалами i и j , и | длина интервала i , а compact берет набор интервалов и объединяет любые перекрывающиеся интервалы.

    Учитывая два набора аннотаций (например, по одному из двух систем нормализации времени), мы определяем общую точность, P , как среднее значение интервальной точности, где каждая аннотация из первого набора сочетается со всеми аннотациями, которые текстуально перекрываются. это во втором сете. Общий отзыв определяется как среднее значение интервальных отзывов, где каждая аннотация из второго набора сочетается со всеми аннотациями, текстуально перекрывающими ее в первом наборе. Формально:

    OIa(B)=⋃b∈B:НАЛОЖЕНИЯ(a,b)ИНТЕРВАЛЫ(b)

    P(S,H)=1∣S∣∑s∈SPint(ИНТЕРВАЛЫ(s),OIs(H))

    R(S,H)=1∣H∣∑h∈HRint(ИНТЕРВАЛЫ(h),OIh(S))

    где S и H — наборы аннотаций, интервалы ( x ) дают интервалы времени, связанные с аннотацией x , а перекрытия ( a, b ) определяют, будут ли аннотации a и b имеют как минимум один общий символ текста.

    Важно отметить, что эти показатели можно применять только к выражениям времени, которые дают ограниченные интервалы. Выражения времени, которые относятся к интервалам с неопределенными границами, выходят за рамки, например, «это займет всего минуту» или «я работаю каждую субботу».

    4. Анализ данных

    4.1. TimeML и SCATE

    Аннотации TimeML и SCATE доступны в подмножестве корпуса TempEval 2013 (UzZaman et al., 2013), который содержит набор новостных статей из разных источников, таких как Wall Street Journal, New York Times, Сеть кабельных новостей и Голоса Америки.показывает статистику данных. Документы из AQUAINT и TimeBank формируют набор данных для обучения и развития. Корпус SCATE содержит 2604 объекта времени (отдельные компоненты выражения времени, такие как каждый, месяц, последний, понедельник, и т. д.), аннотированные в наборе train+dev (т. е. AQUAINT+TimeBank). Эти сущности составляют в общей сложности 1038 временных выражений ( каждый месяц, последний понедельник, и т. д.), из которых 580 дают ограниченные интервалы, т. е. интервалы с заданным началом и концом ( последний понедельник, ограничены, а каждый месяц ограничены). нет).

    Таблица 1:

    Количество документов, аннотации TimeML TIMEX3 и аннотации SCATE для подмножества корпуса TempEval 2013, аннотированного обеими схемами.

    + 91 755 TimeBank 91 755 Испытание + +
    AQUAINT
    Документы 10 68 20
    Приговоры 251 1429 339
    TimeML timex3 61 499 158
    юридические лица 333 1810 461 461
    Skate Time Exp 114 715 209
    Scate ограничен 67 403 93

    Применит оценку интервала на основе метрики, введенную в разделе 3 с наборами данных AQUAINT и TimeBank, рассматривая Аннотации TimeML в качестве системного ( S ) аннотатора и аннотации SCATE в качестве аннотатора человека ( H ). показывает, что аннотации SCATE охватывают разные интервалы времени, чем аннотации TimeML.В первой строке мы видим, что TimeML имеет отзыв только 92% временных интервалов, идентифицированных SCATE в корпусе AQUAINT, и только 83% в корпусе TimeBank. Мы вручную проанализировали все места, где различались аннотации TimeML и SCATE, и обнаружили, что интерпретация SCATE всегда была правильной.

    Таблица 2:

    Сравнение аннотаций TimeML и SCATE.

    + + R текст 91 752
    91 753 AQUAINT TimeBank
    П Р F1 Р F1
    Тело девяносто одна тысяча семьсот пятьдесят два 92.2 92,2 92,2 82,4 83,0 82,7
    Весь текст 92,2 67,1 77,7 82,4 71,2 76,4

    Например, общий случай, когда аннотации TimeML и SCATE перекрываются, но не идентичны, — это выражения времени, которым предшествует предлог, например «с тех пор». Аннотация TimeML для «Since 1985» (с DCT 1998-03-01T14:11) охватывает только год «1985», в результате чего временной интервал [1985-01-01T00:00,1986-01-01T00: 00).Аннотация SCATE представляет полное выражение и, следовательно, дает правильный временной интервал [1986-01-01T00:00,1998-03-01T14:11).

    Другим распространенным случаем разногласий является ситуация, когда TimeML не удается составить все части сложного выражения. Аннотация TimeML для «10:35 утра (07:35 по Гринвичу) пятница» аннотирует два отдельных интервала, время и день (и полностью игнорирует «07:35 по Гринвичу»). Аннотация SCATE распознает это как описание одного временного интервала [1998-08-07T10:35, 1998-08-07T10:36).

    Аннотации TimeML и SCATE также различаются тем, как интерпретируются ссылки на определенные прошлые периоды. Например, TimeML предполагает, что «прошлый год» и «год назад» имеют одинаковую семантику, относящуюся к самому последнему календарному году, например, если DCT — 1998-03-04, то оба они относятся к интервалу [1997-04]. 01-01T00:00, 1998-01-01T00:00). SCATE имеет одинаковую семантику для «в прошлом году», но признает, что «год назад» имеет другую семантику: период, сосредоточенный на одном году до DCT.В SCATE «год назад» относится к интервалу [1996-09-03T00:00, 1997-09-03T00:00).

    Помимо этих различий в интерпретации, мы также заметили, что в то время как корпус SCATE аннотирует выражения времени в любом месте документа (включая метаданные), аннотации TimeBank TIMEX3 ограничены основным текстом документов. Во второй строке показана оценка при сравнении всего текста в документе, а не только основного текста. Неудивительно, что TimeML имеет более низкий уровень отзыва временных интервалов из аннотаций SCATE при этой оценке.

    4.2. Типы аннотаций SCATE

    Изучая часть набора данных для обучения и разработки, мы заметили, что аннотации SCATE удобно разделить на три категории: неоператоры, явные операторы и неявные операторы. Мы определяем неоператоры как Числа, Периоды (например, три месяца), явных интервалов (например, Годы, такие как 1989 ), и повторяющиеся интервалы (День недели, например, Пятница, Месяц-лет, например январь, и т.д.). Неоператоры в основном атомарны; их можно интерпретировать, не обращаясь к другим аннотациям. Операторы не атомарны; их можно интерпретировать только в отношении других аннотаций, на которые они ссылаются. Например, оператор THIS можно интерпретировать, только предварительно интерпретировав не-оператор Day-of-Week и оператор Between, на который он ссылается. Мы разделяем операторы на два типа: явные и неявные. Мы определяем оператор как явный, если он не пересекается ни с какой другой аннотацией.Это происходит, например, когда связка времени с вызывает оператор Between в . Оператор считается неявным, если он перекрывается с другой аннотацией. Это происходит, например, с оператором LAST в , где март подразумевает последний март, , но в тексте нет явного сигнала, и он должен быть выведен из контекста.

    Мы изучаем, как эти группы аннотаций распределяются в документах AQUAINT и TimeBank. показывает, что неоператоры встречаются гораздо чаще, чем операторы (как явные, так и неявные).

    Таблица 3:

    Распределение аннотаций объектов времени в AQUAINT+TimeBank.

    Номера Оп Exp-Ор имп-Ор Итого
    1497 305 219 2021
    74% 15% 11 % 100%

    5. Модели

    Нормализация выражений времени разбивается на две подзадачи: соответствующий объект времени; и b) состав объекта времени , который связывает вместе соответствующие объекты при соблюдении ограничений типа объекта, налагаемых схемой SCATE.Эти две задачи выполняются последовательно, используя выходные данные первой в качестве входных данных для второй. После того, как этапы идентификации и композиции завершены, мы можем использовать конечный продукт, то есть семантическую композицию временных единиц, для передачи интерпретатору SCATE 1 и кодирования временных интервалов.

    5.1. Идентификация объекта времени

    Идентификация объекта времени — это тип задачи маркировки последовательности, в которой каждой части выражения времени присваивается метка, идентифицирующая объект времени, который он вызывает.Мы выражаем такие метки с помощью системы тегов BIO, где B обозначает начало аннотации, I — внутреннюю часть, а O — внешнюю часть любой аннотации. В отличие от стандартных задач маркировки последовательности, схема SCATE допускает несколько аннотаций в одном и том же фрагменте текста (например, «Субботы» — это и День недели, и Это), поэтому модели идентификации объектов должны иметь возможность обрабатывать такие аннотации. многоуровневая классификация.

    5.1.1. Нейронные архитектуры

    Рекуррентные нейронные сети (RNN) — это передовые технологии в задачах маркировки последовательностей (Lample et al., 2016а; Грейвс и др., 2013 г.; Plank et al., 2016) благодаря их способности сохранять память о последовательности по мере ее чтения и делать прогнозы, основанные на признаках дальнего расстояния, поэтому мы также принимаем их здесь. Мы представляем три архитектуры RNN, которые имеют схожую внутреннюю структуру, но различаются тем, как они представляют выходные данные. Они преобразуют входные данные в объекты, которые передают слой встраивания. Затем встроенные векторы признаков подаются в два сложенных двунаправленных рекуррентных блока Gated (GRU), а второй GRU, за которым следует функция активации, выводит один тег BIO для каждого входа.Мы выбираем GRU для наших моделей, так как они могут превзойти другую популярную рекуррентную единицу LSTM (Long Short Term Memory) с точки зрения обновления параметров и сходимости процессорного времени с тем же количеством параметров (Chung et al., 2014).

    Наша 1-сигмовидная модель () подходит к задаче как к проблеме классификации с несколькими метками, с набором сигмоид для каждого выхода, которые позволяют одновременно прогнозировать ноль или более меток BIO. Это стандартный способ кодирования задач классификации с несколькими метками для нейронных сетей, но в наших экспериментах мы обнаружили, что эти модели плохо работают, поскольку они могут создавать слишком много меток для каждого входа, например.g., 03 может быть помечен одновременно как Day-Of-Month и Month-Of-Year.

    Архитектура 1-сигмоидной модели. Ввод: 25 мая. В аннотации в стиле SCATE мая — это Month-Of-Year (неоператор) с неявным Last (оператором) в том же промежутке, а 25 — Day- месяца. На векторном слое M — заглавная буква (Lu), a и y — строчные буквы (L1), пробел — разделитель (Zs), а May — имя собственное (NNP).

    Наша модель 2-Softmax () разбивает выходное пространство меток на два набора: неоператоры и операторы (как определено в разделе 4.2). Очень маловероятно, что какой-либо фрагмент текста будет аннотирован более чем одним неоператором или более чем одним оператором, 2 , хотя обычно текст аннотируется одним неоператором и одним оператором (см. ). В результате мы можем использовать два softmax, один для неоператоров и один для операторов, и, таким образом, модель 2-Softmax может создавать 0, 1 или 2 метки на вход.Мы разделяем входные и встраиваемые слои, но связываем отдельный набор сложенных Bi-GRU с каждой выходной категорией, как показано на рис. 3

    Архитектура модели 2-Softmax. Ввод: мая . Аннотации и функции SCATE такие же, как и в .

    Наш 3-Softmax дополнительно разделяет операторы на явные операторы и неявные операторы (опять же, как определено в разделе 4.2). Мы ожидаем, что это поможет модели, поскольку задача обучения для этих двух случаев сильно различается: с явными операторами модель просто должна запомнить, какие фразы вызывают какие операторы, в то время как с неявными операторами модель должна научиться выводить оператор из контекст (время глагола и т.). Мы используем три softmax, по одному для неоператоров, явных операторов и неявных операторов, и, как и в случае с 2-Softmax, мы разделяем входные и встраиваемые слои, но связываем отдельный набор сложенных Bi-GRU с каждой выходной категорией. Модель похожа на , но с тремя выходными группами вместо двух.

    В качестве входных данных для RNN мы подаем три функции:

    Текст:

    Само входное слово для пословной модели или один входной символ для посимвольной модели.

    Категории символов Unicode:

    Категория каждого символа согласно стандарту Unicode. 4 Кодирует такую ​​информацию, как наличие прописных (Lu) или строчных (Ll) букв, знаков препинания (Po), цифр (Nd) и т. д. Для пословной модели мы объединяем категории символов все символы в слове (например, May становится LuLlLl).

    Часть речи:

    Часть речи, определенная теггером Stanford POS (Toutanova et al., 2003). Мы ожидаем, что это будет полезно, например, для поиска времени глагола, чтобы помочь различать неявные операторы Last и Next. Для посимвольной модели мы повторяем тег части речи на уровне слова для каждого символа в слове, а символы без части речи (например, пробелы) не получают тега.

    5.1.2. Ввод: слова вместо символов

    Идентификация объекта времени в стиле SCATE — это задача пометки последовательности, аналогичная распознаванию именованных объектов (NER), поэтому мы черпаем вдохновение из недавней работы по нейронным архитектурам для NER.Первые нейронные модели NER следовали предшествующей (не нейронной) работе по подходу к NER как проблеме классификации слов, применяя такие архитектуры, как нейронные сети с прямой связью со скользящим окном (Qi et al., 2009), сверточные нейронные сети (CNN) с условными слои случайного поля (CRF) (Collobert et al., 2011) и LSTM со слоями CRF и элементами, созданными вручную (Huang et al., 2015). Совсем недавно для NER также были предложены нейронные сети на уровне символов, в том числе несколько, которые сочетают в себе CNN или LSTM для изучения символьных представлений слов с LSTM или LSTM-CRF для пословной маркировки (Чиу и Николс, 2016; Лэмпл и др., 2016б; Ma and Hovy, 2016), а также сети посимвольной последовательности к последовательности (Gillick et al., 2016; Kuru et al., 2016).

    Основываясь на этих работах, мы рассматриваем две формы обработки ввода для наших RNN: пословная и посимвольная. Несколько аспектов проблемы нормализации времени делают символьный подход особенно привлекательным. Во-первых, многие временные фразы включают в себя числа, которые необходимо интерпретировать семантически (например, хорошая модель должна знать, что месяцы не могут быть числом больше 12), и обработка чисел поразрядно допускает такие интерпретации, в то время как обработка каждого числа как слова будет приводит к редкой, неразрешимой проблеме обучения.Во-вторых, модели на основе слов предполагают, что мы знаем, как разбить текст на слова, но иногда представляют сложные форматы, такие как ночь, , где вместо вызывает оператор Last, а ночь — часть дня. Наконец, модели на основе символов могут улучшать слова вне словарного запаса (OOV), которые являются распространенной проблемой при обучении разреженных наборов данных. (Гибридные модели слово-символ, такие как LSTM-CNNs-CRF (Ma and Hovy, 2016), могут решить эту последнюю проблему, но не две предыдущие.\d\W] + |\S», чтобы разбить буквенно-цифровые выражения, такие как 1620EDT . Однако токенизатор не может за одну ночь разбить такие выражения, как 19980206 и . Для нашей символьной модели маркировка не применяется, и каждый символ (включая пробельные символы) подается на вход.

    5.2. Композиция объектов времени

    После того, как объекты выражений времени идентифицированы, их необходимо скомпоновать, чтобы получить их семантическую интерпретацию.Этот этап анализа состоит из двух частей: связывания сущностей, составляющих выражение времени, и заполнения свойств сущностей правильными значениями. Для обоих случаев мы устанавливаем простой набор правил, которые следуют ограничениям, наложенным схемой SCATE 5 .

    5.2.1. Связывание объекта времени

    показывает процесс, используемый для получения ссылок между объектами времени. Во-первых, мы определяем пустой стек, в котором будут храниться сущности, принадлежащие одному и тому же временному выражению.Затем мы перебираем список сущностей документа, отсортированных по смещению их начальных символов (SortByStart). Для каждой из этих сущностей ( сущность 1 ) и для каждой сущности в стеке ( сущность 2 ) мы проверяем, указывает ли руководство возможную связь (LinkIsValid) между типами сущности 1 и сущность 2 . Если такая ссылка возможна, и она еще не заполнена другой аннотацией, мы жадно делаем ссылку (CREATELINK).Когда расстояние в количестве символов между сущностью и концом стека больше 10, мы предполагаем, что сущности не принадлежат выражению времени. Таким образом, мы очищаем стек. 6

    Алгоритм 1

    стек = ∅
      20 для

      20 Entity 1 в Sortbystart ( объектов ) DO
    IF Entity ( Entity 1 ) — End ( Stack )> 10 Тогда стопка = ∅
       конец если
       для сущность 2 в стопка do
    If LinkisValid ( Entity 9 1 , Entity 2 ) потом CreateLink ( Entity 9 1 , Entity 2 )
    End если
    20
    Push ( Stack , Entittity 9 1 )
    9176 End для

    Например, модель идентификации сущности Год, Месяц Года и День Месяца для выражения времени 1992-12-23 .Затем наш алгоритм композиции временных сущностей выполняет итерацию по этим сущностям. Вначале стек пуст, он просто помещает в стек сущность 1992 (Год). Для объекта 12 (Месяц-Года) он проверяет, определяют ли рекомендации возможную связь между этим типом объекта и тем, который в настоящее время находится в стеке (Год). В этом случае правила устанавливают, что год может иметь подынтервал, связанный с сезоном года, месяцем года или неделей года. Таким образом, алгоритм создает ссылку Sub-interval между 1992 и 12 .Затем сущность 12 помещается в стек. Этот процесс повторяется для объекта 23 (день месяца), проверяя наличие возможной связи с объектами в стеке ( 1992, 12 ). Рекомендации определяют возможную связь подинтервала между месяцем года и днем ​​месяца, поэтому здесь также создается ссылка. Теперь предположим, что следующий объект времени в списке на несколько слов опережает 23 , поэтому расстояние между двумя объектами больше 10 символов.В этом случае стек пуст, и процесс начинается снова, чтобы составить новое выражение времени.

    5.2.2. Завершение свойств

    Последним шагом является связывание каждой единицы времени выражения времени с набором свойств, которые включают информацию, необходимую для его интерпретации. Наша система определяет значения этих свойств следующим образом:

    Тип:

    Схема SCATE определяет, что некоторые объекты могут иметь только определенные значения. Например, сезон года может быть только весна, лето, осень или зима, месяц года может быть только январь, февраль, март и т. д.Чтобы завершить это свойство, мы берем текстовый диапазон объекта времени и нормализуем его до значений, принятых в схеме. Например, если диапазон объекта Month-of-Year представляет собой числовое значение 01 , мы нормализуем его до января, если его диапазон равен сентября , мы нормализуем его до сентября и так далее.

    Значение:

    Это свойство содержит числовое значение, например День месяца или Час дня. Чтобы завершить его, мы просто берем текстовый диапазон объекта и преобразуем его в целое число.Если оно написано словами, а не цифрами (например, девятнадцать вместо 19), мы применяем простую грамматику 7 для преобразования в целое число.

    Семантика:

    В новостных текстах выражения типа last Friday , когда DCT является пятницей, относятся к дню как к DCT, а не к предыдущему вхождению (как это было бы в более стандартном использовании из последних ). SCATE указывает на это с помощью свойства Semantics, где значение Interval-Included указывает, что текущий интервал включается при вычислении последнего или следующего вхождения.В остальных случаях используется значение Interval-Not-Included. В нашей системе, когда найден ПОСЛЕДНИЙ оператор, если он связан с днем ​​недели (например, Friday ), который соответствует DCT, мы устанавливаем значение этого свойства в Interval-Included.

    Interval-Type:

    Такие операторы, как Next или Last, нуждаются в интервале в качестве эталона для интерпретации. Обычно эта ссылка является DCT. Например, следующая неделя относится к неделе, следующей за DCT, и в таком случае значением свойства Interval-Type для оператора Next будет DocTime.Однако иногда оператор привязывается к интервалу, который сам по себе служит ссылкой, например, «к 2000 году». В этом случае значением Interval-Type является Link. Наша система устанавливает для этого свойства значение Link, если оператор связан с Year, и DocTime в противном случае. Это очень грубая эвристика; поиск подходящего якоря для временного выражения является сложной открытой проблемой, для решения которой необходимы будущие исследования.

    5.3. Автоматически сгенерированные обучающие данные

    Каждый документ в наборе данных начинается со времени создания документа.Эти временные выражения весьма специфичны; они встречаются изолированно, а не в контексте предложения, и всегда дают ограниченный интервал. Таким образом, их идентификация является критическим фактором в метрике оценки на основе интервалов. Однако время документа отображается в различных форматах: «Понедельник, 24 июля 2017 г.», «24.07.17, 09:52», «15.08.17, 13:37» и т. д. Многие из этих форматов не охватываются обучающими данными, которые взяты из небольшого числа источников новостей, каждый из которых использует только один формат.Поэтому мы разработали генератор времени для случайной генерации дополнительных 800 изолированных обучающих примеров для самых разных форматов таких выражений. Генератор охватывает 33 различных формата 8 , которые включают варианты, охватывающие аббревиатуру, с разделителями или без них, смесь цифр и строк и различные последовательности единиц времени.

    6. Эксперименты

    Мы обучаем и оцениваем наши модели на корпусе SCATE, описанном в разделе 4. В качестве набора данных для разработки берутся 14 документов в качестве случайной стратифицированной выборки из части TempEval 2013 (TimeBank + AQUAINT), показанной на , включая новостные документы (1 ABC, 1 CNN, 1 PRI, 1 VOA) и новостные ленты (5 AP, 1 NYT, 4 WSJ).Мы используем метрику оценки на основе интервалов, описанную в разделе 3, но также сообщаем о более традиционных метриках извлечения информации (точность, полнота и F 1 ) для этапов идентификации и составления объекта времени. Пусть S будет набором элементов, предсказанным системой, а H — набором элементов, созданных людьми, точность ( P ), полнота ( R ) и F 1 определены. так как:

    F1(S,H)=2·P(S,H)·R(S,H)P(S,H)+R(S,H)⋅

    Для этих расчетов каждый элемент является аннотацией, и одна аннотация считается равной другой, если она имеет тот же диапазон символов (смещения), тип и свойства (при этом определение применяется рекурсивно для свойств, которые указывают на другие аннотации).

    Чтобы сделать эксперименты с различными нейронными архитектурами сопоставимыми, мы настроили параметры всех моделей для достижения наилучшей производительности на данных разработки. Из-за нехватки места мы перечисляем здесь только гиперпараметры для нашего лучшего Char 3-Softmax: размер встраивания текста на уровне символов, текста на уровне слов, тега POS и функций категорий символов Unicode: 128, 300, 32. и 64 соответственно. Чтобы избежать переобучения, мы использовали отсев с вероятностями 0,25, 0,15 и 0.15 для 3 признаков соответственно; размеры единиц GRU первого и второго уровня установлены как 256 и 150. Мы обучили модель с оптимизацией RMSProp на мини-пакетах размером 120 и следовали стандартным рекомендациям, чтобы оставить настройки гиперпараметров оптимизатора со значениями по умолчанию. Каждая модель обучается не более 800 эпох, максимальное время обучения модели Char 3-Softmax составляет около 22 часов с использованием двух графических процессоров NVIDIA Kepler K20X.

    6.1. Выбор модели

    Мы сравниваем различные модели идентификации временных объектов, описанные в разделе 5.1, обучая их на обучающих данных и оценивая их на данных разработки. Среди эпох каждой модели мы выбираем эпоху на основе результатов, которые модель хорошо предсказывает, потому что из-за ее слабости модель будет давать нестабильные результаты в наших предварительных экспериментах. Например, для моделей 3-Softmax наш выбор основан на производительности неоператоров и неявных операторов. показывает результаты этапа разработки.

    Таблица 4:

    Точность ( P ), отзыв ( R ) и F 1 для различных архитектур нейронной сети на Идентификация объекта времени на данных разработки.

    61,2 73,6
    Модель Р R F1
    Слово 1-сигмовидной 60,2 52,0 55,8
    Чар 1-сигмовидной 54,0 59,0 56,4
    Слово 2-Софтмакс 58,7 63,9
    Чар 2-Софтмакс 74,8 72,4
    Слово 3-Софтмакс 68.3 64,9 66,6
    Char 3-Софтмакс 88,2 76,1 81,7
    Char 3-Софтмакс дополнительный 80,6 73,4 76,8

    Во-первых, мы обнаружили, что модели, основанные на символах, превосходят модели, основанные на словах. 9 Например, лучшая модель на основе символов достигает F 1 81,7 (Char 3-Softmax), что значительно лучше, чем лучшая модель на основе слов, достигающая F 1 всего из 66.6 (р=0). 10 Во-вторых, мы обнаружили, что модели Softmax превосходят сигмовидные модели. Например, модель Char 3-Softmax достигает F 1 из 81,7, что значительно лучше, чем 56,4 F 1 модели Char 1-Sigmoid (p = 0). В-третьих, как для символьных, так и для словесных моделей мы обнаружили, что 3-Softmax значительно превосходит 2-Softmax: Char 3-Softmax F 1 из 81,7 лучше, чем Char 2-Softmax F 1 из 73.6 (p=0), а Word 3-Softmax F 1 из 66,6 лучше, чем Word 2-Softmax F 1 из 61,2 (p=0,0254). Кроме того, мы обнаружили, что все модели лучше идентифицируют неоператоры, чем операторы, и что явные операторы труднее всего решить. Например, модель Char 3-Softmax получает 92,4 F 1 для неоператоров, 36,1 F 1 для явных операторов и 79,1 F 1 для неявных операторов.Наконец, мы также обучаем лучшую модель Char 3-Softmax, используя сгенерированные аннотации, описанные в разделе 5.3, и получаем 76,8 F 1 (дополнительно Char 3-Softmax), т. е. модель работает лучше без дополнительных данных ( р=0). Вероятно, это результат переобучения из-за небольшого разнообразия форматов времени в данных обучения и разработки.

    Из этого анализа набора для разработки мы выбрали два варианта архитектуры Char 3-softmax для оценки на тестовом наборе: Char 3-Softmax и Char 3-Softmax extra.Затем эти модели были объединены с системой связывания на основе правил, описанной в разделе 5.2, для создания полной системы синтаксического анализа в стиле SCATE.

    6.2. Оценка модели

    Мы оцениваем как Char 3-Softmax, так и Char 3-Softmax extra на тестовом наборе для задач идентификации и композиции. показывает результаты. В задаче идентификации Char 3-Softmax extra не хуже, чем при использовании исходного набора данных с общим F 1 61,5 против 61,3 (p=0,5899), а с использованием дополнительных сгенерированных данных модель лучше предсказывает не- операторы и неявные операторы с более высокой точностью (p=0.0096), что является ключом к получению правильных ограниченных временных интервалов.

    Таблица 5:

    Результаты набора тестов для шагов идентификации объекта времени (Ident) и состава объекта времени (Comp). Для первого мы сообщаем о производительности для каждого набора сущностей: неоператоры (Non-Op), явные операторы (Exp-Op) и неявные операторы (Imp-Op).

    + + + + 50,0 50,0 + 61,5 + Комп 59,7 57,7 51,2

    Для девяносто одна тысяча восемьсот двадцать пять сравнить наш подход с государством-of the-art, мы запускаем HeidelTime на тестовых документах и ​​используем метрику, описанную в разделе 3. Таким образом, мы можем сравнивать интервалы, полученные обеими системами, независимо от схемы аннотаций. показывает, что наша модель с дополнительными случайно сгенерированными обучающими данными превосходит HeidelTime с точки зрения точности со значительной разницей в 12.6 процентных пунктов (p = 0,011), в то время как HeidelTime демонстрирует несущественно лучшую производительность с точки зрения отзыва (p = 0,1826). В целом наша модель получает на 3,3 процентных пункта больше, чем HeidelTime, с точки зрения F 1 (p = 0,2485). Обратите внимание, что, хотя модель, обученная без дополнительных аннотаций, лучше с точки зрения композиции временных объектов (см. ), она гораздо хуже работает при создании конечных интервалов. Это вызвано тем, что эта модель не может идентифицировать неоператоры, которые составляют даты в невидимых форматах (см.3).

    Таблица 6:

    Точность ( P ), полнота ( R ) и F 1 наших моделей на тестовых данных, производящих ограниченные интервалы времени. Для сравнения мы включили результаты, полученные HeidelTime.

    Char 3-Softmax Char 3-Soft. дополнительные
    P R F 1 P R F 1
    Non-Op 79.2 63,2 70,3 87,4 63,2 73,4
    Exp-Ор 52,6 36,6 43,2 39,8 38,7 39,3
    имп-Ор 53,3 47,1 65,4 56,7

    +
    Идент 70,0 54,5 61,3 69. 4 55,3

    +
    46,5 52,3 46,0
    Р + +
    91 751 91 752 Модель R F 1
    HeidelTime 70,9 76,8 73.7
    Чар 3-Софтмакс 73,8 62,4 67,6
    Чар 3-Софтмакс дополнительные 82,7 71,0 76,4

    Однако оценка HeidelTime в Scate аннотации может быть не совсем честным. HeidelTime был разработан по схеме TimeML, и, как мы покажем в разделе 4, SCATE охватывает более широкий набор выражений времени. По этой причине мы проводим дополнительную оценку. Во-первых, мы сравниваем аннотации в тестовом наборе, используя нашу метрику на основе интервалов, аналогичную сравнению, указанному в разделе , и выбираем те случаи, в которых TimeML и SCATE полностью совпадают.Затем мы удаляем остальные случаи из набора тестов. Следовательно, мы также удаляем прогнозы, данные системами, как нашей, так и HeidelTime, для этих случаев. Наконец, мы запускаем счетчик интервалов, используя новую конфигурацию. Как видно, все модели улучшают свои характеристики. Однако наша модель по-прежнему работает лучше, когда она обучена дополнительным аннотациям.

    Таблица 7:

    Точность ( P ), полнота ( R ) и F 1 на ограниченных интервалах данных теста TimeML/SCATE с идеальным перекрытием .

    девяносто одна тысяча семьсот шестьдесят один
    Модель Р R F 1
    HeidelTime 70,7 80,2 75,1
    Чар 3-Софтмакс 74.3 64.2 68.9
    Char 3-Softmax Extra 83.3 74.1 74.1 74.1 74,4 784 784

    Skate Transter, который кодирует промежутки времени, нуждается в композиционном графике временного выражения, чтобы иметь все его элементы верны.Таким образом, сбой в идентификации любой сущности временного выражения приводит к совершенно неинтерпретируемым графам. Например, в выражении в следующем году , если наша модель идентифицирует год как период вместо интервала, она не может быть связана с следующим , поскольку это нарушает схему SCATE. Модель также может не распознавать некоторые временные сущности, например лето в выражении прошлым летом. Эти ошибки идентификации в основном вызваны разреженными обучающими данными.Поскольку графы, содержащие эти ошибки, приводят к неразрешимым логическим формулам, интерпретатор не может создавать интервалы, и, следовательно, отзыв уменьшается. Внутри тех интервалов, которые в конечном итоге формируются, наиболее распространенная ошибка — это перепутать операторы Last и Next, и как следствие неправильно размещенный интервал даже при правильно идентифицированных неоператорах. Например, если October с неявным оператором NEXT вместо ссылки на [2013-10-01T00:00,2013-11-01T00:00) указан оператор LAST, он будет ссылаться на [2012-10 -01T00:00, 2012-11-01T00:00).Отсутствие неявных операторов также является основным источником ошибок для HeidelTime, который не работает со сложными композиционными графами. Например, того январского дня 2011 года аннотируется HeidelTime как два разных интервала, соответствующих соответственно января и 2011 . Как следствие, HeidelTime предсказывает не один, а два неверных интервала, что влияет на его точность.

    7. Обсуждение

    Что касается задачи идентификации объекта времени, различия в производительности между набором данных для разработки и тестирования могут быть связаны с распределением аннотаций наборов данных.Например, в тестовом наборе есть 10 аннотаций Season-Of-Year, а в наборе данных для разработки таких аннотаций нет; относительная частота аннотаций Minute-Of-Hour, Hour-Of-Day, Two-Digit-Year и Time-Zone в тестовом наборе намного ниже, и наши модели хорошо предсказывают такие аннотации. Явные операторы очень лексически зависимы, например. Последнее соответствует одному слову из множества { последние , последние , ранее , , , , , , , , более , , , , , , Прошедшие , до } , и большинство из них появляются один или два раза в обучающих и развивающих наборах.

    Наши эксперименты подтверждают преимущества символьных моделей в предсказании аннотаций SCATE, которые согласуются с нашими объяснениями в разделе 5.1.2: словесные модели, как правило, не могут отличить числа от выражений времени, основанных на цифрах. Для моделей на основе слов сложно уловить некоторые образцы выражений времени, такие как 24-е, и 25-е, августа и августа, и т. д., в то время как модели на основе символов устойчивы к такой дисперсии. Мы провели эксперимент, чтобы увидеть, являются ли эти преимущества уникальными для композиционных аннотаций, таких как SCATE, или, в более общем плане, для простого распознавания выражений времени.Мы использовали аннотации TimeML от AQUAINT и TimeBank (см. Ресурсы) для обучения двух многоклассовых классификаторов идентификации аннотаций TIMEX3. Модели были аналогичны нашим моделям Char 3-Softmax и Word 3-Softmax с использованием тех же настроек параметров, но с одним выходным слоем softmax для прогнозирования четырех типов TIMEX3: Дата, Время, Продолжительность и Набор. Как показано на тестовом наборе, модель на основе слов значительно превосходит модель на основе символов как с точки зрения выражений времени (p = 0,0428), так и с точки зрения подмножества выражений времени, содержащих цифры (p = 0,0428).0007). Эти результаты показывают, что причина, по которой модели на основе символов более успешны в аннотациях SCATE, заключается в том, что SCATE разбивает выражения времени на значимые подкомпоненты. Например, TimeML будет просто вызывать Monday, 1992-05-04 Date и вызывать 15:00:00 GMT Saturday Time. SCATE будет идентифицировать четыре и пять, соответственно, различных типов семантических объектов в этих выражениях; и каждый объект SCATE будет состоять либо из букв, либо из цифр. В TimeML перед моделью стоят сложные задачи обучения, т.е.g., что иногда название дня недели является частью даты, а иногда частью времени, в то время как в SCATE название дня недели всегда является днем ​​недели.

    Таблица 8:

    Precision (P ), отзыв (R), и F 1 для символьных и словесных моделей при прогнозировании аннотаций TimeML TIMEX3 на тестовом наборе TempEval 2013. TIMEX3-Digits — это подмножество аннотаций, содержащих цифры.

    TIMEX3 TIMEX3-Цифры
    Р R F 91 669 1 Р R F 1
    Символ 70.2 62,7 66,2 73,8 71,4 72,6
    Слово 81,3 69,0 74,7 86,2 79,4 82,6

    С другой стороны, бег шаг создания объекта с идентификацией золотого объекта достигает 72,6 с точки зрения F1. Одной из основных причин ошибок на этом шаге является эвристика завершения свойства Interval-type. Как мы объясняем в разделе 5.2 мы реализуем слишком грубый набор правил для этого случая. Еще одним источником ошибок является расстояние между 10 символами, которые мы используем, чтобы решить, принадлежат ли объекты времени одному и тому же выражению времени. Это условие препятствует созданию некоторых ссылок, например, выражение «Позже» в начале предложения обычно относится к другому временному интервалу в предыдущем предложении, поэтому расстояние между ними намного больше.

    8. Заключение

    Мы представили первую модель для нормализации времени, обученную на аннотациях в стиле SCATE.Модель превосходит современные модели, основанные на правилах, доказывая, что описание временных выражений с точки зрения композиционных временных сущностей подходит для подходов машинного обучения. Это расширяет исследования в области нормализации времени за пределы более ограниченной схемы TimeML. Мы показали, что архитектура нейронной сети, основанной на символах, имеет преимущества перед системой, основанной на словах, и что сеть с несколькими выходами работает лучше, чем с одним выходом. Кроме того, мы определили новую метрику оценки на основе интервалов, которая позволяет нам выполнять сравнение между аннотациями, основанными как на схеме SCATE, так и на схеме TimeML, и обнаружили, что SCATE предоставляет более широкий спектр выражений времени.Наконец, мы увидели, что доступный разреженный обучающий набор вызывает переобучение модели и что наибольшее количество ошибок совершается в тех случаях, которые реже появляются в аннотациях. Это более важно в случае явных операторов, поскольку они очень зависят от лексикона. Улучшение производительности в этих случаях — наша главная цель в будущей работе. Согласно результатам, представленным в этой работе, кажется, что решением было бы получить более широкий обучающий набор, поэтому перспективным направлением исследований является расширение нашего подхода для автоматического создания новых аннотаций.

    10. Благодарности

    Мы благодарим анонимных рецензентов, а также главного редактора Мону Диаб за полезные комментарии к предыдущему проекту этой статьи. Работа финансировалась проектом THYME (R01LM010090) Национальной медицинской библиотеки и использовала вычислительные ресурсы, поддерживаемые Национальным научным фондом в рамках гранта № 1228509. Ответственность за содержание является исключительной ответственностью авторов и не обязательно представляет официальную вид на Национальную медицинскую библиотеку, Национальные институты здравоохранения или Национальный научный фонд.

    Сноски

    1 https://github.com/clulab/timenorm

    2 В обучающих данных только 4 из 1217 неоператоров перекрываются с другим неоператором, и только 6 из 406 операторов перекрываются с другим оператором. Например, номер NYT, указанный в редакционной статье в субботу, 25 апреля, , , суббота , помечен как [день недели, последний, перекресток], где последние два ярлыка являются операторами.

    3 В предварительных экспериментах мы также пытались совместно использовать слои GRU, но обычно это приводило к ухудшению производительности.

    4 См. http://unicode.org/notes/tn36/

    5 https://github.com/bethard/anafora-annotations/blob/master/.schema/timenorm-schema.xml

    6 Порог расстояния был выбран на основе производительности набора данных разработки.

    7 https://github.com/ghewgill/text2num

    8 Мы используем распространенные форматы, доступные в офисных пакетах, в частности, LibreOffice.

    9 Мы вкратце рассмотрели использование предварительно обученных вложений слов, чтобы попытаться улучшить производительность модели Word 1-Sigmoid, но это дало производительность, которая все еще была хуже, чем у символьной модели, поэтому мы не исследовали это дальше.

    10 Мы использовали тест значимости парной начальной загрузки перед выборкой.

    Ссылки

    • Бетард Стивен и Паркер Джонатан. 2016. Схема семантически композиционной аннотации для временной нормализации. В материалах десятой Международной конференции по языковым ресурсам и оценке (LREC 2016), Париж, Франция, 5 Европейская ассоциация языковых ресурсов (ELRA). [Google Scholar]
    • Бетард Стивен. 2013. Синхронная контекстно-свободная грамматика для нормализации времени.В материалах конференции 2013 г. по эмпирическим методам обработки естественного языка, стр. 821–826, Сиэтл, Вашингтон, США, 10. Ассоциация компьютерной лингвистики. [Бесплатная статья PMC] [PubMed] [Google Scholar]
    • Берд Стивен, Клейн Юэн и Лопер Эдвард. 2009. Обработка естественного языка с помощью Python: анализ текста с помощью инструментария естественного языка. O’Reilly Media, Inc. [Google Scholar]
    • Чиу Джейсон П. К. и Николс Эрик. 2016. Распознавание именованных объектов с двунаправленными LSTM-CNN.Труды Ассоциации компьютерной лингвистики, 4: 357–370. [Google Scholar]
    • Чунг Джунён, Гулчере Чаглар, Чо Кёнхён и Бенгио Йошуа. 2014. Эмпирическая оценка закрытых рекуррентных нейронных сетей при моделировании последовательностей. Препринт arXiv arXiv: 1412.3555v1. [Google Scholar]
    • Коллобер Ронан, Уэстон Джейсон, Ботту Леон, Карлен Майкл, Кавукчуоглу Корай и Кукса Павел. 2011. Обработка естественного языка (почти) с нуля. Журнал исследований машинного обучения, 12:2493–2537, ноябрь.[Google Scholar]
    • Фишер Франк и Стрётген Янник. 2015. Когда происходит (немецкая) литература? Об анализе темпоральных выражений в больших корпусах. В материалах DH 2015: Ежегодная конференция Альянса организаций цифровых гуманитарных наук, том 6, Сидней, Австралия. [Google Scholar]
    • Гиллик Дэн, Бранк Клифф, Виньялс Ориол и Субраманья Амарнаг. 2016. Многоязычная обработка языков из байтов. В книге Найт Кевин, Ненкова Ани и Рэмбоу Оуэн, редакторы, NAACL HLT 2016, Конференция Североамериканского отделения Ассоциации компьютерной лингвистики: технологии человеческого языка 2016 г., Сан-Диего, Калифорния, США, 12–17 июня 2016 г., стр. 1296–1306 гг.Ассоциация компьютерной лингвистики. [Google Scholar]
    • Грейвс Алекс, Мохамед Абдель-Рахман и Хинтон Джеффри. 2013. Распознавание речи с помощью глубоких рекуррентных нейронных сетей. В 2013 г. Международная конференция IEEE по акустике, обработке речи и сигналов, страницы 6645–6649. IEEE. [Google Scholar]
    • Хан Бенджамин и Лави Алон. 2004. Фреймворк для разрешения времени на естественном языке. 3(1):11–32, март. [Google Scholar]
    • Хуан Чжихэн, Сюй Вэй и Юй Кай.2015. Двунаправленные модели LSTM-CRF для маркировки последовательностей. CoRR, абс./1508.01991. [Google Scholar]
    • Куру Онур, Джан Озан Аркан и Юрет Дениз. 2016. Чарнер: Распознавание именованных сущностей на уровне символов. В COLING 2016, 26-я Международная конференция по компьютерной лингвистике, Материалы конференции: технические документы, 11–16 декабря 2016 г., Осака, Япония, страницы 911–921. [Google Scholar]
    • Лэмпл Гийом, Баллестерос Мигель, Субраманиан Сандип, Каваками Казуя и Дайер Крис.2016а. Нейронные архитектуры для распознавания именованных объектов. В материалах конференции 2016 года Североамериканского отделения Ассоциации компьютерной лингвистики: технологии человеческого языка, страницы 260–270. Ассоциация компьютерной лингвистики. [Google Scholar]
    • Лэмпл Гийом, Баллестерос Мигель, Субраманиан Сандип, Каваками Казуя и Дайер Крис. 2016б. Нейронные архитектуры для распознавания именованных объектов. В NAACL HLT 2016, Конференция 2016 года Североамериканского отделения Ассоциации вычислительной лингвистики: технологии человеческого языка, Сан-Диего, Калифорния, США, 12–17 июня 2016 г., страницы 260–270.[Google Scholar]
    • Ли Кентон, Арци Йоав, Додж Джесси и Зеттлемойер Люк. 2014. Контекстно-зависимый семантический анализ выражений времени. В материалах 52-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи), страницы 1437–1447, Балтимор, Мэриленд, 6 Ассоциация компьютерной лингвистики. [Google Scholar]
    • Лин Чен, Карлсон Элизабет В., Длигач Дмитрий, Рамирез Моника П., Миллер Тимоти А., Мо Хуан, Брэггс Натали С., Каган Эндрю, Гейнер Вивиан С., Денни Джошуа К. и Савова Гергана К.. 2015. Автоматическая идентификация метотрексат-индуцированной гепатотоксичности у больных ревматоидным артритом из электронной медицинской карты. Журнал Американской ассоциации медицинской информатики, 22(e1):e151–e161. [Бесплатная статья PMC] [PubMed] [Google Scholar]
    • Llorens Hector, Derczynski Leon, Gaizauskas Robert J. и Saquete Estela. 2012. TIMEN: открытый ресурс нормализации временных выражений. В Language Resources and Evaluation Conference, страницы 3044–3051.Европейская ассоциация языковых ресурсов (ELRA). [Google Scholar]
    • Ма Сюэжэ и Хови Эдуард. 2016. Сквозная маркировка последовательностей с помощью двунаправленного LSTM-CNN-CRF. В материалах 54-го ежегодного собрания Ассоциации компьютерной лингвистики (ACL; 2016), том 1 Ассоциация компьютерной лингвистики. [Google Scholar]
    • Мазур Павет и Дейл Роберт. 2010. Wikiwars: новый корпус для исследования темпоральных выражений. В материалах конференции 2010 г. по эмпирическим методам обработки естественного языка, EMNLP ‘10, страницы 913–922, Страудсбург, Пенсильвания, США. Ассоциация компьютерной лингвистики.[Google Scholar]
    • Планк Барбара, Согаард Андерс и Голдберг Йоав. 2016. Многоязычная маркировка частей речи с двунаправленными моделями долговременной краткосрочной памяти и вспомогательной потерей. В материалах 54-го ежегодного собрания Ассоциации компьютерной лингвистики (том 2: короткие статьи), страницы 412–418, Берлин, Германия, август. Ассоциация компьютерной лингвистики. [Google Scholar]
    • Пустеёвски Джеймс, Кастаньо Хосе, Ингрия Роберт, Саури Розер, Гайзаускас Роберт, Сетцер Андреа и Кац Грэм.2003а. TimeML: Надежная спецификация событий и временных выражений в тексте. В IWCS-5 Пятый международный семинар по вычислительной семантике. [Google Scholar]
    • Пустеевски Джеймс, Хэнкс Патрик, Саури Розер, Си Эндрю, Гайзаускас Роберт, Сетцер Андреа, Радев Драгомир, Сундхейм Бет, Дэй Дэвид, Ферро Лиза и Лазо Марсия. 2003б. Корпус TimeBank. В материалах корпусной лингвистики, 2003 г., Ланкастер. [Google Scholar]
    • Пустеевски Джеймс, Ли Кийонг, Бунт Гарри и Ромари Лоран.2010. ISO-TimeML: международный стандарт семантической аннотации. В материалах 7-й Международной конференции по языковым ресурсам и оценке (LREC’10), Валлетта, Мальта Европейская ассоциация языковых ресурсов (ELRA). [Google Scholar]
    • Ци Яньцзюнь, Кавукчуоглу Корай, Коллоберт Ронан, Уэстон Джейсон и Кукса Павел П.. 2009 г. Объединение размеченных и неразмеченных данных с обучением распределению по классам слов. В материалах 18-й конференции ACM по управлению информацией и знаниями, ACM, страницы 1737–1740.[Google Scholar]
    • Шильдер Франк. 2004. Извлечение значения из временных существительных и временных предлогов. Транзакции ACM по обработке информации на азиатских языках (TALIP) — специальный выпуск по обработке временной информации, 3 (1): 33–50, март. [Google Scholar]
    • Стрётген Янник и Герц Михаэль. 2013. Многоязычная и междоменная временная маркировка. Языковые ресурсы и оценка, 47(2):269–298. [Google Scholar]
    • Стрётген Янник и Герц Михаэль. 2015. Базовый временной тегировщик для всех языков.В материалах конференции 2015 г. по эмпирическим методам обработки естественного языка, страницы 541–547, Лиссабон, Португалия, сентябрь. Ассоциация компьютерной лингвистики. [Google Scholar]
    • Стрётген Янник, Зелл Джулиан и Герц Михаэль. 2013. Heideltime: Настройка английского языка и разработка испанских ресурсов для TempEval-3. В материалах Седьмого международного семинара по семантической оценке, SemEval ’13, страницы 15–19. Ассоциация компьютерной лингвистики. [Google Scholar]
    • Тутанова Кристина, Клейн Дэн, Мэннинг Кристофер Д.и певица Йорам. 2003. Многофункциональная маркировка частей речи с циклической сетью зависимостей. В материалах конференции 2003 г. Североамериканского отделения Ассоциации вычислительной лингвистики по технологиям человеческого языка — Том 1, NAACL ’03, страницы 173–180, Страудсбург, Пенсильвания, США Ассоциация компьютерной лингвистики. [Google Scholar]
    • УзЗаман Наушад, Ллоренс Гектор, Дерчински Леон, Аллен Джеймс, Верхаген Марк и Пустеёвски Джеймс. 2013. SemEval-2013 Задание 1: TempEval-3: Оценка выражений времени, событий и временных отношений.Во второй совместной конференции по лексической и вычислительной семантике (*SEM), том 2: материалы седьмого международного семинара по семантической оценке (SemEval 2013), страницы 1–9, Атланта, Джорджия, США, 6 Ассоциация компьютерной лингвистики. [Google Scholar]
    • Верхаген Марк, Гайзаускас Роберт, Шильдер Франк, Хеппл Марк, Кац Грэм и Пустеевски Джеймс. 2007. SemEval-2007 Задача 15: Идентификация временных отношений TempEval. В материалах 4-го Международного семинара по семантическим оценкам, SemEval ’07, страницы 75–80, Прага, Чехия.[Google Scholar]
    • Марк Верхаген, Саури Розер, Казелли Томмазо и Пустеёвски Джеймс. 2010. SemEval-2010 Задача 13: TempEval-2. В материалах 5-го Международного семинара по семантической оценке, стр. 57–62, Уппсала, Швеция, 7 Ассоциация компьютерной лингвистики. [Google Scholar]
    • Фоссен Пик, Агерри Родриго, Альдабе Ициар, Цибульска Агата, Марике ван Эрп Антске Фоккенс, Лапарра Эгоиц, Минард Анн-Лиз, Алессио Пальмеро Апросио Герман Ригау, Роспохер Марко и Сегерс Роксана.2016. NewsReader: использование ресурсов знаний в машине для межъязыкового чтения для получения большего количества знаний из огромных потоков новостей. Специальный выпуск «Системы, основанные на знаниях», Elsevier.

    admin

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *