Тренировался: Недопустимое название — Викисловарь

Содержание

OZON.ru

Казань

  • Покупайте как юрлицо
  • Мобильное приложение
  • Реферальная программа
  • Зарабатывай с Ozon
  • Подарочные сертификаты
  • Пункты выдачи
  • Постаматы
  • Помощь
  • Бесплатная доставка

Каталог

ЭлектроникаОдежда, обувь и аксессуарыДом и садДетские товарыКрасота и здоровьеБытовая техникаСпорт и отдыхСтроительство и ремонтПродукты питанияАптекаТовары для животныхКнигиТуризм, рыбалка, охотаАвтотоварыМебельХобби и творчествоЮвелирные украшенияВсё для игрКанцелярские товарыТовары для взрослыхАнтиквариат и коллекционированиеЦифровые товарыБытовая химияМузыка и видеоАвтомобили и мототехникаOzon УслугиЭлектронные сигареты и товары для куренияOzon PremiumOzon GlobalТовары в РассрочкуУцененные товарыOzon CardСтрахование ОСАГОРеферальная программаOzon TravelРегулярная доставкаOzon HealthyДля меняOzon DисконтOzon MerchOzon Бизнес для юрлицOzon КлубУскоренная доставка!Ozon LiveMom’s club Везде 0Войти 0Заказы 0Избранное0Корзина
  • TOP Fashion
  • Premium
  • Ozon Card
  • LIVE
  • Акции
  • Бренды
  • Магазины
  • Сертификаты
  • Электроника
  • Одежда и обувь
  • Детские товары
  • Дом и сад
  • Ozon Travel
  • Dисконт

Такой страницы не существует

Вернуться на главную Зарабатывайте с OzonВаши товары на OzonРеферальная программаУстановите постамат Ozon BoxОткройте пункт выдачи OzonСтать Поставщиком OzonЧто продавать на OzonEcommerce Online SchoolSelling on OzonО компанииОб Ozon / About OzonВакансииКонтакты для прессыРеквизитыАрт-проект Ozon BallonБренд OzonГорячая линия комплаенсПомощьКак сделать заказДоставкаОплатаКонтактыБезопасностьЮридическим лицамДобавить компанию в Ozon БизнесМои компанииКэшбэк 5% с Ozon. СчётПодарочные сертификаты © 1998 – 2021 ООО «Интернет Решения». Все права защищены. OzonИнтернет-магазинOzon ВакансииРабота в OzonOZON TravelАвиабилетыOzon EducationОбразовательные проектыLITRES.ruЭлектронные книги

Как тренировался Дэниел Крейг для роли Джеймса Бонда

Если кто и знает, как тяжело быть Джеймсом Бондом, так это Саймон Уотерсон: он был личным тренером спецагента на протяжении 22 лет, а также обучал его девушек и других членов съемочной команды. Увидев фотосессию с Крейгом, которую вы можете найти в апрельском номере GQ, Саймон сказал, что это лучшее подтверждение его работы. «Я вижу, что все в этом мире достижимо», – добавил он.

Когда речь заходит об идеальном мужском теле, тренер отмечает, что он больше заботится о комфорте клиентов, нежели о визуальной составляющей, так как любые тренировки могут пагубно влиять на здоровье человека. «Люди слишком критичны к себе, они не наслаждаются жизнью в полной мере», – рассказал Саймон. «Если вы хотите выглядеть как люди из рекламы нижнего белья, то считайте, что ваша жизнь закончена. Может, ваше тело станет идеальным, но морально вам будет очень тяжело. К сожалению, не все осознают это».

Мы встретились с Уотерсоном, бывшим морским пехотинцем, еще до начала карантина. По пути в зал мы обсуждали, как он построит расписание подопечных во время пандемии. Он работал с Крисом Праттом, Дональдом Гловером, звездами боевиков и супергеройских фильмов. Саймон рассказал, что многие актеры перед тренировками просят его, чтобы он помог им добиться результатов Крейга. «Мне кажется, Дэниел высоко поднял планку: теперь все берут с него пример».

Пирс Броснан, которого тоже тренировал Уотерсон, сильно отличался от Крейга: как сказал Саймон, Пирс был элегантнее. А вот с Дэниелом все немного по-другому. «Крейг всегда говорит, какой результат он хочет получить в итоге», – объяснил Уотерсон. «В «Казино «Рояль» у нас было много работы. Крейг выкладывался по максимуму». По мнению тренера, сейчас зрители в основном обращают внимание не на характер киногероя, а на его физическую подготовку. «Джейсон Уолш, тренировавший Бри Ларсон для роли Капитана Марвел, сказал мне, что теперь тело – связующее звено между актером и персонажем», – добавил Уотерсон. 

Теперь всем кажется, что актеры должны выглядеть не хуже профессиональных спортсменов: Джоиван Уэйд рассказывал, что перед кастингом в «Роковой патруль» он изучал не только свои эмоции, но и тело. Уотерсон создал такую систему, которая помогает его подопечным держать себя в форме долгое время, а главное, чувствовать себя комфортно и эмоционально стабильно.

Специально для вас мы расспросили Уотерсона, как же Крейг тренировался в течение этих нескольких лет: начиная с «Казино «Рояль» и заканчивая «Не время умирать».

Кадр из фильма «Казино «Рояль», 2006 год

До «Казино «Рояль»

«Я бывший военный и хорошо понимаю, как важно, чтобы у человека были развиты чувства внутренней дисциплины, выносливости и самообладания, которые необходимы для тренировок. К счастью, Дэниел не обделен этими качествами. Поэтому я разработал программу, которая включала различные виды тренировок. Они должны были закалять его характер, нужный для роли Джеймса Бонда.

Крейг сразу поделился со мной целями и предупредил обо всех возможных проблемах. За все наше сотрудничество мы не упустили ни одной детали, проработали каждую зону. Я стараюсь делать комплексные тренировки: слежу отдельно за движениями, осанкой, уверенностью, стабильностью – все это важно во время занятий спортом. Также нужно обращать внимание на рост мышц: они должны быть функционально развитыми, ведь во время съемок Дэну нужно много бегать и прыгать.

Тренировки представляли собой пауэрлифтинг, усложненный дополнительными силовыми упражнениями. Таким образом, у нас работали не только мышцы, но и сердечно-сосудистая система. За это время Крейг успел набрать мышечную массу и сжечь лишние жировые отложения.

Спустя пару недель активной работы я понял, что у Дэна очень хорошо развита мускулатура, поэтому многие упражнения не вызывали у него проблем. Тогда пришлось добавить соревновательный элемент, который дополнительно повышал мотивацию. Я многим рекомендую заниматься с друзьями, потому что так вы помогаете не только им, но и себе.

Через несколько месяцев Крейга уже можно было принять за профессионального спортсмена. Он полностью сосредоточился на работе, был очень дисциплинированным. Даже сейчас я не верю, что он смог достичь таких результатов. Это еще раз доказывает, что сила воли и желание – движущие силы прогресса».

Кадр из фильма «Квант милосердия», 2008 год

Между «Казино «Рояль» и «Квантом милосердия»

«Если вы плотно и активно тренируетесь, то ваше тело меняется достаточно быстро. Я занимаюсь со своими подопечными не ради внешнего результата, а для того, чтобы они были здоровыми и подтянутыми. Не так важно, как они выглядят: главное, что они придерживаются режима и дисциплинируют себя. 

Для съемок в «Кванте милосердия» пришлось немного изменить программу тренировок. Я сделал упор на работу сердечно-сосудистой системы и развитие ловкости: Дэну нужно было много прыгать, бегать, перелезать через препятствия, выскакивать из окон и машин. В этой части Бонд поменялся: он стал быстрее, агрессивнее. Такие тренировки привели к тому, что Крейг начал активно терять жировую массу. Советую и вам добавить в свою жизнь больше упражнений на скорость: уже через пару недель вы увидите результат».  

Кадр из фильма «Квант милосердия», 2008 год

Между «Квантом милосердия» и «007: Координаты «Скайфолл»

«Мои тренировки построены так, чтобы в итоге на съемочной площадке Дэну было легко сделать тот или иной трюк. Это может быть бег по пересеченной местности или лестницам, борьба с элементами акробатики, прыжки с крыши. Поэтому я всегда читаю сценарий, прежде чем составить программу.

Я заимствую тренировки из разных видов спорта: регби (идеальные упражнения для прокачки ног), футбол и бокс (развивают скорость, ловкость, координацию). Также не забываю про кардио, ведь Бонду нужно поддерживать в тонусе дыхательную систему. Сюда входят плавание, спринтерские тренировки, разные виды прыжков. Также в программу я добавляю трюковые упражнения. Так мы прорабатываем сцены драк».

Кадр из фильма «007: Координаты «Скайфолл», 2012 год

Между «007: Координаты «Скайфолл» и «007: Спектр»

«Конечно, в этот раз все началось с проработки сценария и составления нужной программы. В этой части Бонду пришлось и плавать в бассейне, и бегать по Вестминстеру, и прыгать с крыши на крышу, и делать трюки на велосипеде. Для этого Дэну стоило по максимуму проработать выносливость. Ему нужно было быть готовым ко всему, ведь во время съемок нельзя точно предугадать, насколько просто будет выполнить трюк. Для этого мы продумали все возможные варианты: в итоге Дэн научился идеально управлять своим телом. При этом Крейг выглядел очень привлекательно: мы сделали из него настоящую греческую статую».

Кадр из фильма «007: Спектр», 2015 год

Между «007: Спектр» и «Не время умирать»

«Чем старше становится Дэн, тем больше времени нам приходится тратить на тренировки. Если подготовка к первому фильму заняла у нас примерно полгода, то дальше этот промежуток увеличивался: к «Не время умирать» мы готовились около 14 месяцев.

Этот фильм получился богатым на трюки. Поэтому в первую очередь мы прорабатывали ловкость. Здесь главное – владение телом, а силовые характеристики на втором месте. Даже если Дэну тяжело выполнять какие-то трюки, он должен делать это естественно, чтобы на экране все выглядело красиво и реалистично.

Когда дело дошло до съемок, нам пришлось повозиться. Много времени мы потратили на подготовительный этап: Дэн запоминал, как правильно выполнять движения, как не навредить себе. Он жил по правилам профессионального спортсмена. Хотя у Крейга было в разы меньше времени на подготовку, чем у олимпийцев перед выступлением. Кроме того, у спортсменов есть возможность отдохнуть: они могут сделать перерыв в несколько дней между соревнованиями. А вот Дэниелу повезло меньше: он часто работал на износ. Поэтому я постоянно следил за тем, чтобы в конце дня он делал растяжку и ходил на массаж.

По опыту могу сказать, что немногие справляются с таким графиком работы. Нам со стороны кажется, что все это очень просто, поэтому мы и не понимаем, за что актеры получают такие деньги. На самом деле все намного жестче. Бонд или другие спецагенты снимаются по 10–12 часов без выходных в течение нескольких месяцев. И хотя я слежу за Дэном постоянно, с возрастом ему что-то дается сложнее. Вы должны помнить об этом: не нужно ставить рекорды. Чем старше вы становитесь, тем больше внимания вам стоит уделять восстановлению и питанию. И не забывайте про сон – это лучшее лекарство для организма».

Материал был впервые опубликован на сайте британского GQ.

Вероятно, вам также будет интересно:

Премьеру «Джеймса Бонда» перенесли из-за коронавируса

Станет ли Джеймс Бонд отцом?

10 уроков стиля от Дэниела Крейга

Перед полетом Гагарин тренировался на Кубани

Спустя 40 лет на здании краснодарского аэропорта появилась памятная доска, подтверждающая этот факт.

В сентябре 1960 года в краснодарский аэропорт прибыла группа летчиков Военно-воздушных сил. На борту самолета ИЛ-14 были Юрий Гагарин, Герман Титов, Григорий Нелюбов, Андриян Николаев, Павел Попович и Валерий Быковский.

Позже их назовут Первым отрядом космонавтов СССР, или знаменитой группой ВВС № 1. В нашем крае они проходили предполетную практику. На молодых и веселых парней никто не обратил особого внимания. Разве что на рост – все были невысокими, около 165 см.

В аэропорту летный состав разместили в просторном зале. В его центре установили огромный стол, на котором можно было укладывать парашюты различных систем. Жили гости здесь же, в гостинице аэропорта – сейчас это офисное здание АО «Международный аэропорт Краснодар» и управляющей компании «Аэродинамика».

У летчиков были жесткая дисциплина и распорядок дня по минутам. С местными они говорили доброжелательно, но к новым знакомствам не стремились. Около трех недель будущие космонавты отрабатывали прыжки с парашютом в районе хутора Ленина и станицы Старокорсунской, а в Геленджикской бухте – приводнение. Говорили, что приземлялись и в поле, и в горах, и в лесу, и в плавнях. В аэропорту народ решил: к соревнованиям готовятся.

И хотя ничего сверхъестественного в группе летчиков не было, краснодарцам «настоятельно не рекомендовали» распространяться о московских гостях. Все стало понятно 12 апреля 1961 года. После полета в космос Гагарина кубанские пилоты узнали в нем одного из парней, тренировавшихся в нашем крае.

Краснодарский летчик 241-го отряда Александр Бурлакин часто общался с будущими героями. После полета Гагарина у него родилась идея увековечить это событие. Всеобщая радость дарила вдохновение и окрыляла, но… В ответ он получил от командования: «Не суйся куда не надо!»

И все же он не сдавался, много лет искал единомышленников, стал одним из самых активных членов общественного движения «Кубань и космонавтика»... и добился справедливости. Спустя 40 лет!

Так, 12 апреля 2001 года в краснодарском аэропорту была торжественно открыта мемориальная доска, на которой изображена гагаринская группа. Место гордости для всех, кто любит космос. Каждый год именно здесь отмечают День космонавтики горожане, проходят митинги и встречи с космонавтами, приезжающими на Кубань.

Глушаков тренировался с "Химками" перед матчем со "Спартаком"

https://rsport. ria.ru/20210507/glushakov-1731406731.html

Глушаков тренировался с "Химками" перед матчем со "Спартаком"

Глушаков тренировался с "Химками" перед матчем со "Спартаком" - Спорт РИА Новости, 07.05.2021

Глушаков тренировался с "Химками" перед матчем со "Спартаком"

Футболист "Химок" Денис Глушаков провел тренировку с командой в преддверии матча 29-го тура Российской премьер-лиги (РПЛ) против московского "Спартака",... Спорт РИА Новости, 07.05.2021

2021-05-07T17:44

2021-05-07T17:44

2021-05-07T17:46

химки

денис глушаков

футбол

/html/head/meta[@name='og:title']/@content

/html/head/meta[@name='og:description']/@content

https://cdn21.img.ria.ru/images/07e5/04/0a/1727704335_0:0:1663:936_1920x0_80_0_0_7f25f6b954f787df92a1aa6bc15a0517.jpg

МОСКВА, 7 мая — РИА Новости. Футболист "Химок" Денис Глушаков провел тренировку с командой в преддверии матча 29-го тура Российской премьер-лиги (РПЛ) против московского "Спартака", сообщается на странице подмосковного клуба в Instagram. Глушаков получил травму 10 апреля в матче с "Тамбовом" (1:0). Позднее "Химки" сообщили, что медицинское обследование выявило у 34-летнего полузащитника контузию боковой связки коленного сустава. Сам футболист выразил надежду, что сможет сыграть в нынешнем сезоне.Матч команд пройдет 10 мая на стадионе "красно-белых". Глушаков, ставший чемпионом России в составе "Спартака", в текущем сезоне провел 17 встреч во всех турнирах и забил три мяча.

Спорт РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

2021

Спорт РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

Новости

ru-RU

https://rsport.ria.ru/docs/about/copyright.html

https://xn--c1acbl2abdlkab1og.xn--p1ai/

Спорт РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og. xn--p1ai/awards/

https://cdn24.img.ria.ru/images/07e5/04/0a/1727704335_262:0:1663:1051_1920x0_80_0_0_3fb479d6d2868b9870cacdc72c8c09ff.jpg

Спорт РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

Спорт РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

химки, денис глушаков, футбол

МОСКВА, 7 мая — РИА Новости. Футболист "Химок" Денис Глушаков провел тренировку с командой в преддверии матча 29-го тура Российской премьер-лиги (РПЛ) против московского "Спартака", сообщается на странице подмосковного клуба в Instagram.

Глушаков получил травму 10 апреля в матче с "Тамбовом" (1:0). Позднее "Химки" сообщили, что медицинское обследование выявило у 34-летнего полузащитника контузию боковой связки коленного сустава. Сам футболист выразил надежду, что сможет сыграть в нынешнем сезоне.

"Впереди — "Спартак", Глушаков работает вместе с командой", — говорится в сообщении "Химок".

Матч команд пройдет 10 мая на стадионе "красно-белых". Глушаков, ставший чемпионом России в составе "Спартака", в текущем сезоне провел 17 встреч во всех турнирах и забил три мяча.

«Заразился коронавирусом, попал в больницу и тренировался в палате» | Статьи

В ноябре национальная команда по хоккею составом U-20 выиграла этап Еврохоккейтура. Большинство игроков впервые оказались в главной сборной страны. Выступив против взрослых соперников на финском Кубке Карьяла, они получили возможность подготовиться к молодежному чемпионату мира (МЧМ) в Эдмонтоне, который пройдет в конце декабря — начале января. В составе команды играли как звезды КХЛ вроде нападающего СКА Василия Подколзина и вратаря питерских армейцев Ярослава Аскарова, так и хоккеисты, пока выступающие уровнем ниже. Среди них — форвард системы московского «Динамо» Дмитрий Злодеев, который вышел на лед в матче против Чехии (3:0). 18-летний спортсмен проводит за бело-голубых второй сезон в Молодежной хоккейной лиге (МХЛ), а нынешней осенью дебютировал за их фарм-клуб в Высшей хоккейной лиге (ВХЛ). В интервью «Известиям» Злодеев рассказал о поездке на Кубок Карьяла, заболевании коронавирусом и хоккейной юности в Воронеже.

Игра против взрослых сборных на Евротуре — космос по сравнению с ВХЛ и МХЛ?

— Уровень сильно отличается. Скорости и мощности совершенно другие. Но мы многое взяли на эмоциях, которые захлестывали. И благодаря выполнению установок тренерского штаба мы сумели эти эмоции правильно направить. Отсюда и результат. Очень многое было достигнуто за счет атмосферы в команде и той стратегии, которую формулируют тренеры. И сумасшедшего настроя у каждого игрока.

Два матча вы провели 13-м нападающим. Тяжело было выходить на последнюю встречу вместе с партнерами, которые уже успели получить игровую практику?

— Не особо тяжело. Я играл в звене с очень сильными ребятами — Егором Спиридоновым и Тахиром Мингачёвым. Перед матчем мы просто переговорили о взаимодействии на льду, обсудили, что будем делать в ходе своих смен. Когда вышли на лед, как-то быстро нашли взаимопонимание. Проблем не возникло.

— Год назад в составе сборной U-18 вы выиграли первый в истории страны Мировой Кубок вызова в этой возрастной категории, причем тоже играли против более старших команд. Те матчи против североамериканских сборных сильно отличались от противостояний европейским коллективам на Кубке Карьяла?

— Большая разница в том, что в Северной Америке ты играешь на маленьких площадках. Большее обилие бросков, меньше комбинационного хоккея. Те же шведы пытались разыгрывать шайбу до верного. Так же как и чехи с финнами. Если у североамериканцев большая нацеленность на ворота, то у европейцев задача больше играть в комбинационный хоккей и разыгрывать до конца.

В КХЛ почти везде уменьшили размеры площадок. Не трудно будет перестроиться на них?

— Мне даже проще, поскольку на маленьких площадках удобнее играть. Это не должно стать проблемой. Люблю, когда игра идет в высоком темпе с множеством контактов — всё гораздо динамичней.

Насколько тяжело было выигрывать тот Кубок вызова на территории Северной Америки у местных сборных с местным судейством?

— Не могу сказать, что нас засуживали. Хотя, может быть, это забылось на фоне победы. В любом случае у нас был очень дружный коллектив и хороший тренерский штаб. За счет этого победили. Всегда пытались навязывать свою игру, чтобы соперник под нас подстраивался, а не мы под него. Где-то это получалось, где-то нет. Но в итоге практически всегда такой подход приносил свои плоды.

Руководивший той командой Сергей Голубович теперь в штабе Игоря Ларионова в молодежной сборной России. Насколько велика была его и Владимира Филатова роль в работе вашего коллектива?

— Филатов помогал Ларионову в работе с нападающими, Голубович больше занимался защитниками. Игорь Николаевич руководил процессом, но я затрудняюсь более четко разделить их. При этом Голубович мог что-то подсказать на тренировке атакующим игрокам, а Филатов — обороняющимся. Понятно, что основные поправки и указания дает Ларионов. Но и на тренировке, и во время игры, и в раздевалке и Владимир Викторович, и Сергей Владимирович не оставались в стороне, подходили и обсуждали с нами разные моменты.

— Владимир Потапов чем занимался в этом штабе?

— Отвечал за тактику. Все тактические собрания, видеоразборы нашей игры и игры соперников в большей степени проводил он. Понятно, что в этом участвовали все тренеры, но Владимир Владимирович всегда показывал нам что-то на видео, рисовал на схемах. Основная тактическая работа была на нем.

— Изначально понимали, сколько будете играть на турнире?

— Заранее никогда никто не будет объявлять состав. Но каждый вызов в сборную придает мне очень позитивные эмоции. Не важно, выпускают меня на лед во время матчей сразу или надо пробиваться в состав. Главная задача — доказывать свое право играть и любым способом приносить пользу команде.

— Весной из-за пандемии отменили юниорский чемпионат мира, на который должна была ехать команда вашего года рождения. Обидно?

— Мы летом прошлого года выиграли Кубок Глинки, который по составу даже сильнее ЮЧМ, поскольку в это время у североамериканских игроков нет плей-офф в своих клубах. И все сильнейшие ребята могут участвовать. Европейцев всегда отпускают в сборные. А вот канадцы и американцы не всех отпускают, потому что юниорский чемпионат мира проходит в апреле, когда в OHL и USHL играются матчи плей-офф. В личном плане не сыграть на ЮЧМ, конечно, обидно. У нас были хорошие шансы на победу, мы все ждали этого турнира. Ведь, по сути, это финал трехлетнего цикла юниорских сборных, в конце которого каждый хочет ощутить атмосферу ЮЧМ и выиграть его.

Ваш ровесник вратарь Ярослав Аскаров отлично отыграл за сборную на Кубке Карьяла, но о том, что он будет звездой своего поколения, говорят больше двух лет. Его талант был заметен во времена, когда играли друг против друга на детско-юношеских соревнованиях?

— Наверно, это было заметно еще в 14–15 лет, когда играли на межрегиональных соревнованиях. Я выступал за Москву, а Ярослав — за Питер. Он тогда еще играл в «Бульдогах» (юношеская команда в Санкт-Петербурге. — «Известия»). Уже тогда был высоким. И в то время Аскаров находился в возрасте, когда у вратарей плохо обстоит дело с реакцией, катанием, маневренностью. А у него уже всё это было на хорошем уровне. Понятно, что причиной тому послужил серьезный труд самого Ярослава. Перемещение, растяжка были у него очень хорошие. И это выделяло Аскарова на общем фоне.

— Как отнеслись к недавним словам Владимира Крикунова, который на вопрос о том, чтобы попробовать молодежь, ответил, что у «Динамо» другие задачи, пока от девятого места отделяет всего одно очко?

— Честно говоря, от вас впервые услышал об этих словах. Но думаю, что если молодой игрок будет показывать тот хоккей, который соответствует уровню первой восьмерки Западной конференции КХЛ, то шанс в главной команде «Динамо» он получит. Пока же надо не сидеть и ждать этого шанса, а работать, тренироваться, показывать свою лучшую игру в ВХЛ и МХЛ. И тренерский штаб будет видеть, что ты готов к КХЛ. Шанс появится сам собой.

Вы еще ни разу не привлекались к занятиям с главной командой «Динамо»?

— Да, я должен был ехать летом с основной командой на сбор в Нижний Новгород. Но заболел ковидом. Из МХК «Динамо» тогда должны были ехать еще Иван Дидковский и Богдан Тринеев. Но за день до отъезда у нас с Дидковским выявили коронавирус и оставили на базе в Новогорске. Мы сели на карантин. При этом наши баулы успели уехать в Нижний. Как и Тринеев, который тоже отправился на сбор, но вернулся оттуда через два-три дня.

Как пережили заражение коронавирусом?

— Так получилось, что динамовскую команду вышки собирали раньше, чем основную и молодежную. И через несколько дней мы с Ваней Дидковским первыми заболели. Потом это случилось с остальной командой. Всех закрыли на карантин в Новогорске, но меня отвезли в больницу. В итоге ребята на базе отсидели неделю, и их выпустили. А мне пришлось лежать в больнице две недели. Чувствовал себя нормально, но только на исходе первой недели сдал два отрицательных теста на ковид. И пришлось еще неделю отлежаться в медучреждении, чтобы быстрее приступить к тренировкам. Потому что в противном случае мне бы пришлось отсидеть две недели дома на карантине. Никакого резона тратить суммарно три недели на это не было.

Совсем не чувствовали признаков коронавируса?

— Только в первые пару дней немного ломало, держалась высокая температура. А потом уже всё было нормально. Находился в больнице под Чеховом, списывался с тренером по физподготовке, делал в условиях палаты какие-то упражнения. Понятное дело, отталкивался от самочувствия.

В этом сезоне вы постоянно чередуете игры в ВХЛ и МХЛ. Вам сложно это дается?

— Да не особо. Обычно в молодежную команду «Динамо» меня спускают, когда нет игр в вышке, чтобы у меня была практика. Даже поиграв в ВХЛ, мне интересно сыграть против хороших соперников в МХЛ. Особенно если матчи с сильными командами. А у нас перед моим отъездом на Кубок Карьяла был выезд в Питер к «СКА-1946». После Евротура сыграл дома против «Локо». Эти два соперника — одни из лучших команд в МХЛ. Сыграть против них очень полезно. Меньше тренировок, но зато больше игр — это гораздо лучше.

— Игорь Ларионов говорил, что в декабре в расширенном списке молодежной сборной 15-летний Матвей Мичков, который до травмы был самым результативным в МХЛ. Ваше «Динамо» в октябрьских матчах обыграло его «СКА-1946», а сам Матвей не набрал ни одного очка в играх с вами. За счет чего команда справилась с ним?

— Я думаю, что мы в целом показали хорошую командную игру и оказались сильнее «СКА-1946». Персонально игру Мичкова не разбирали, хотя те, кто смотрел матчи МХЛ этого сезона, видят, что он выделяется по своему возрасту очень серьезно. Матвей действует за счет игрового интеллекта, обладает высоким IQ. Но мы в каждом матче стараемся навязывать свой стиль игры. И в Питере делали это успешно, судя по результату.

В ВХЛ действуете по-другому?

— Там приходится играть против большого количества опытных и состоявшихся хоккеистов. И с тобой в одной команде они тоже есть. Поэтому и на тренировках, и на матчах гораздо сложнее проходят многие вещи, которые делаем в МХЛ. Нужно с гораздо большей концентрацией и скоростью всё это осуществлять. И, конечно, намного чаще проводим разборы своих соперников, их ошибок и удачных действий. В молодежке тоже занимаемся тактикой, но в вышке ее гораздо больше. Там выехать на индивидуальных качествах уже невозможно — надо играть в тактический хоккей.

Против кого в вышке было сложнее всего играть?

— Наверно, в Альметьевске, где мы проиграли 2:6. У «Нефтяника» очень быстрая команда, хоккеисты здорово умеют играть в пас. Было очень непросто.

— Много прошли через автобусные выезды?

— В ВХЛ мы на все гостевые матчи летаем на самолетах. А в МХЛ самый дальний автобусный выезд был в Питер. Но я к любой дороге спокойно отношусь. Да, самолетом проще долететь, но выдержу и многочасовую поездку на автобусе. Доехать на нем до Петербурга не так тяжело.

—​​​​​​​ Каково вам было начинать играть в вышке рядом с такими опытными игроками, как Денис Кокарев и Аслан Раисов? Кокарев всё-таки двукратный обладатель Кубка Гагарина. Не было с его стороны дедовщины?

— Понятно, что к опытным игрокам молодые испытывают большое уважение. Но никакой дедовщины нет. Что Денис, что Аслан — простые мужики, с которыми всегда приятно общаться. Подскажут, если что-то непонятно. Для меня было большим удивлением, что такие статусные игроки были настолько открыты к разговору. Всегда приятно работать с такими людьми.

Вы родились в Воронеже. Почему выбрали хоккей?

— У меня классическая история — родители отдали меня в хоккей, который в Воронеже был очень популярен. Я в скором времени втянулся и в более сознательном возрасте сказал им, что хочу этим видом спорта всерьез заниматься. После этого мы решили, что надо в Москву перебираться. Мне тогда уже 13 лет было.

—​​​​​​​ «Буран» в то время еще не был фарм-клубом «Динамо». Почему сделали выбор именно в пользу бело-голубых?

— Это была сильнейшая в то время команда России по нашему году. В ней работал лучший тренер — Суярков Сергей Владимирович. Очень хотелось оказаться у него. Доволен, что удалось поработать с ребятами именно из той команды и под руководством такого специалиста, который очень много вложил в мое развитие.

—​​​​​​​ В детстве у вас были кумиры среди звезд мирового хоккея?

— Не могу сказать, что были кумиры. Но нравился и нравится стиль игры Сидни Кросби, Райана О’Райли, Никласа Бекстрема.

Вы смотрите в сторону Северной Америки?

— Не могу не смотреть, потому что скоро молодежный чемпионат мира пройдет в Эдмонтоне. Хочется там сыграть, но для этого надо попасть в окончательный состав сборной. А что касается клубных дел, то у меня еще полтора года контракта с «Динамо». Команда уже стала родной, поэтому хочется пробиться в основу, поиграть в КХЛ и что-то выиграть. Мечтаю сыграть на стадионе в Петровском парке. В ближайшие полтора года буду сосредоточен только на этом.

В Музее космонавтики не смогли подтвердить, что в украденной сурдокамере тренировался Ю.Гагарин (уточнение) - Агентство городских новостей «Москва»

В Музее космонавтики не смогли подтвердить, что в украденной сурдокамере тренировался Ю.Гагарин (уточнение)

16.04.2018 12:22

Теги: Музеи , Кражи , Космонавты , Космонавтика

В материале по просьбе пресс-службы Музея космонавтики уточняется название украденного объекта.

В Музее космонавтики подтвердили кражу из реставрационного центра в Строгино сурдокамеры, однако не смогли сказать, действительно ли в ней некогда тренировались космонавты Юрий Гагарин и Герман Титов. Об этом Агентству городских новостей «Москва» сообщили в пресс-службе музея.

«Да, сурдокамеру действительно украли из реставрационного центра в Строгино, сейчас ведется следствие, и все детали - это тайна следствия. Мы сами ждем, когда нам уже расскажут какие-либо подробности», - сказала собеседница агентства.

В Музее также отметили, что факт того, что именно в этой сурдокамере тренировался знаменитый «первый отряд» советских космонавтов, пока не подтвержден экспертизой.

«Мы не можем утверждать, что сурдокамера принадлежала именно «первому отряду». Потому что шел как раз процесс атрибуции - когда определяют автора, место изготовления, время, материал, кто связан с этим предметом, то есть всю информацию о предмете. В отношении этой сурдокамеры как раз шел такой процесс, и был не до конца проведен, поэтому утверждать что-либо рано», - отметил собеседник агентства.

Ранее источник сообщил Агентству «Москва», что полиция разыскивает злоумышленников, похитивших сурдокамеру, в которой якобы тренировались Ю.Гагарин и другие легендарные космонавты.

Рубрика: Общество , Происшествия

Ссылка на материал: https://www.mskagency.ru/materials/2771852

Таварес впервые тренировался с "Торонто"

NHL.com является официальным сайтом National Hockey League. NHL, NHL Shield, текстовый символ и логотипы Stanley Cup, Stanley Cup Playoffs и Stanley Cup Final, символ и логотип Center Ice, логотипы NHL Conference, название NHL Winter Classic и The Biggest Assist Happens Off The Ice являются зарегистрированными торговыми марками. Названия и логотипы Stanley Cup Qualifiers, Vintage Hockey, The Game Lives Where You Do, логотип NHL Winter Classic, название и логотип NHL Heritage Classic, название и логотип NHL Stadium Series, логотип NHL All-Star, название и логотип NHL Face-Off, NHL. TV, NHL Premium, NHL After Dark, NHL GameCenter, NHL GameCenter LIVE, название и логотип NHL Network, название и логотип NHL Tonight, On The Fly, название и логотип NHL Network Showdown, название и логотип NHL Awards, название и логотип NHL Draft, NHL Mascots, Hockey Fights Cancer, Because It's The Cup, название и логотип NHL Green, NHL Vault, Hockey Is For Everyone, NHL Thanksgiving Showdown, название и логотип NHL Centennial Classic, логотип NHL Centennial Season, название и логотип NHL100 Classic, название и логотип NHL Global Series, название и логотип NHL China Games и Don't Miss A Moment, название и логотип NHL Power Players, название и логотип NHL Outdoors at Lake Tahoe являются зарегистрированными торговыми марками NHL. Все логотипы и эмблемы NHL, знаки и логотипы команд NHL, а также знаки, изображенные здесь, являются собственностью NHL и не могут быть использованы без предварительного письменного согласия NHL Enterprises, L.P. © NHL 2021. Все права зарегистрированы. Все командные свитера с именами игроков NHL и их номера официально зарегистрированы NHL и профсоюзом игроков. Текстовый символ Zamboni и форма машины для заливки льда Zamboni являются зарегистрированными торговыми марками Frank J. Zamboni & Co., Inc. © Frank J. Zamboni & Co., Inc. 2021. Все права зарегистрированы. Любые другие торговые марки и авторские права третьих лиц являются собственностью их владельцев. Все правы зарегистрированы.

обученных синонимов, обученных антонимов | Тезаурус Мерриам-Вебстера

Тезаурус

Синонимы и антонимы слова

обучено

(запись 1 из 2)

1 как в сломано , сломано

синонимов и близких синонимов для обученных

Антонимы и Ближние Антонимы для обученных

2 как в квалифицировано

Синонимов и близких синонимов для обученных

Антонимы и Ближние Антонимы для обученных

3 как в квалифицированных , образованных

Синонимов и близких синонимов для обученных

  • острый,
  • проницательный,
  • проницательный,
  • пьянящий,
  • проницательный,
  • знающий,
  • проницательный,
  • перципиент,
  • прозорливый,
  • проницательный,
  • разумный,
  • смекалка,
  • мудрый
  • оповещение,
  • умный,
  • светлая,
  • бриллиант,
  • умный,
  • исключительный,
  • быстро,
  • гиперинтеллектуальный,
  • умный,
  • острый,
  • шустрый,
  • быстро,
  • сообразительный,
  • острый,
  • сообразительный,
  • умный,
  • суперсмарт,
  • ультрасмарт

Антонимы и Ближние Антонимы для обученных

  • беззаботный,
  • с птичьим мозгом,
  • тупоголовый,
  • безмозглый,
  • безмозглый,
  • пузырчатая,
  • чокнутый,
  • плотная,
  • тусклый,
  • тупой,
  • тупица,
  • тупой
  • (также допинг),
  • тупой
  • [сленг],
  • тусклый,
  • немой,
  • тупоголовый,
  • без головы,
  • глупый,
  • безнадежный
  • [в основном британцы],
  • недалекий,
  • с кулаком,
  • хромой мозг
  • (или глупый),
  • лохоголовый,
  • бессмысленный,
  • тупой,
  • непрозрачный,
  • булавочная,
  • бессмысленный,
  • простой,
  • медленный,
  • тупица,
  • мягкий,
  • мягкий,
  • глупый,
  • толстая,
  • тупоголовый,
  • тупица,
  • неблестящий,
  • неразумный,
  • неумный,
  • пустой,
  • слабоумный,
  • остроумие
  • абсурд,
  • осел,
  • бальзам,
  • петушиный,
  • сумасшедший,
  • сумасшедший,
  • кукушка,
  • Даффи,
  • дафт,
  • Диппи,
  • дотти,
  • перголовая,
  • дурак,
  • полусырный,
  • безрассудный,
  • безумие,
  • странный
  • (также куки),
  • псих
  • (также Looney),
  • сумасшедший,
  • безумный,
  • бессмысленный,
  • ореховый,
  • нелепо,
  • сочный,
  • болтун,
  • дурак,
  • неразумный,
  • дурацкий
  • (также дурацкий),
  • zany

Синонимы и антонимы слова обучено (Запись 2 из 2)

1 привести в надлежащее или желаемое состояние физической формы
  • обучил в школе легкоатлетов
2 побудить к приобретению знаний или навыков в какой-либо области
  • обучит студентов хорошим учебным навыкам
3 неуклонно фиксировать (как свое внимание) на главной цели
  • train Все ваши мысли о том, как вы можете забить победный гол в игре
4 указать или повернуть (что-то) к цели или цели
  • обучил взгляд в далекое яблочко

Ближайшие антонимы для обученных

5 сделать компетентным (по образованию, навыкам или способностям) для конкретного офиса или функции
  • Он настолько опытен, что его обычно используют для обучения новобранцев
См. Определение словаря

определение обучено The Free Dictionary

поезд

(trān) n.

1. Серия соединенных между собой железнодорожных вагонов, тянущих или толкаемых одним или несколькими локомотивами.

2. Длинная очередь движущихся людей, животных или транспортных средств.

3. Личный состав, транспортные средства и оборудование, следующие за боевым подразделением и обеспечивающие его припасами и услугами.

4. Часть платья, которая идет позади владельца.

5. Штат сопровождающих лиц; свита.

6. а. Упорядоченная последовательность связанных событий или мыслей; последовательность. См. Синонимы в серии.

г. Серия последствий, вызванных событием; последствия.

7. Комплект связанных механических частей: зубчатая передача.

8. Связка пороха, которая действует как взрыватель для взрыва заряда.

v. обучено , поездов , поездов

v. тр.

1. Чтобы научить или приучать к определенному образу поведения или производительности.

2. Чтобы стать профессиональным специалистом со специальными инструкциями и практикой. См. Раздел «Синонимы» в разделе «Учить».

3. Чтобы подготовиться физически, как по режиму: подготовить спортсменов к соревнованиям по легкой атлетике.

4. Заставить (растение или волосы) принять желаемое направление или форму, например, путем манипулирования.

5. Чтобы навести или направить (например, пистолет или камеру) на что-либо.См. "Синонимы в цель".

6. Отпустить; тащить.

v. внутр.

1. Дать или пройти курс обучения: ежедневно готовиться к марафону.

2. Для проезда поездом.


[Среднеанглийский, , конечная часть платья , от старофранцузского, от тренера, до перетаскивания, , от вульгарной латыни * tragīnāre, от * tragere, , чтобы тянуть , образование спина из трактуса, причастие прошедшего латинского trahere.]


поезда · билли · ты н.

поезд · бле прил.

Словарь английского языка American Heritage®, пятое издание. Авторские права © 2016 Издательская компания Houghton Mifflin Harcourt. Опубликовано Houghton Mifflin Harcourt Publishing Company. Все права защищены.

Определение тренированного иммунитета и его роль в здоровье и болезнях

  • 1.

    Меджитов Р. и Джейнвей К. Распознавание врожденного иммунитета: механизмы и пути. Immunol. Ред. 173 , 89–97 (2000).

    CAS PubMed Статья Google Scholar

  • 2.

    Lanier, L. L. Распознавание NK-клеток. Annu. Rev. Immunol. 23 , 225–274 (2005).

    CAS PubMed Статья Google Scholar

  • 3.

    Бонилья Ф. А. и Оттген Х. С. Адаптивный иммунитет. J. Allergy Clin.Иммунол. 125 , S33 – S40 (2010).

    PubMed Статья Google Scholar

  • 4.

    Bowdish, D. M. E., Loffredo, M. S., Mukhopadhyay, S., Mantovani, A. & Gordon, S. Рецепторы макрофагов, участвующие в «адаптивной» форме врожденного иммунитета. Microbes Infect. 9 , 1680–1687 (2007).

    CAS PubMed Статья Google Scholar

  • 5.

    Netea, M. G., Quintin, J. & Van Der Meer, J. W. M. Тренированный иммунитет: память о врожденной защите хозяина. Клеточный микроб-хозяин 9 , 355–361 (2011). В этой статье описываются особенности памяти врожденной иммунной системы и впервые предлагается термин «тренированный иммунитет» .

    CAS PubMed Статья Google Scholar

  • 6.

    Naik, S. et al. Воспалительная память делает кожные эпителиальные стволовые клетки чувствительными к повреждению тканей. Природа 550 , 475–480 (2017). Это исследование показывает, что эпителиальные стволовые клетки поддерживают хромосомную доступность ключевых генов реакции на стресс, которые активируются первичным стимулом .

    CAS PubMed PubMed Central Статья Google Scholar

  • 7.

    Lay, K. et al. Стволовые клетки перенаправляют пролиферацию, чтобы сдерживать брешь в своем нишевом барьере. eLife 7 , e41661 (2018).

    PubMed PubMed Central Статья Google Scholar

  • 8.

    Christ, A. et al. Западная диета запускает NLRP3-зависимое репрограммирование врожденного иммунитета. Cell 172 , 162–175 (2018). Это исследование показало, что диета с высоким содержанием жиров индуцирует длительное функциональное перепрограммирование иммунитета в миелоидных клетках, которое остается после того, как мышей вернули на диету .

    CAS PubMed PubMed Central Статья Google Scholar

  • 9.

    Курц, Дж. Специфическая память в врожденных иммунных системах. Trends Immunol. 26 , 186–192 (2005).

    CAS PubMed Статья Google Scholar

  • 10.

    Конрат, У., Бекерс, Г. Дж. М., Лангенбах, К. Дж. Г. и Яскевич, М. Р. Прайминг для усиленной защиты. Annu. Rev. Phytopathol. 53 , 97–119 (2015).

    CAS PubMed Статья Google Scholar

  • 11.

    Gourbal, B. et al. Врожденная иммунная память: эволюционная перспектива. Immunol. Ред. 283 , 21–40 (2018).

    CAS PubMed Статья Google Scholar

  • 12.

    Netea, M. G. et al. Тренированный иммунитет: программа врожденной иммунной памяти в отношении здоровья и болезней. Наука 352 , aaf1098 (2016).

    PubMed PubMed Central Статья CAS Google Scholar

  • 13.

    Novakovic, B. et al. β-глюкан меняет эпигенетическое состояние иммунологической толерантности, вызванной lps. Ячейка 167 , 1354–1368.e14 (2016). Это исследование детализирует эпигенетический и транскрипционный ландшафт толерантности, индуцированной человеческими макрофагами LPS, и характеризует потенциал β-глюкана, чтобы обратить его вспять .

    CAS PubMed PubMed Central Статья Google Scholar

  • 14.

    Нанкабирва, В.и другие. Выживание детей и вакцинация БЦЖ: проспективное когортное исследование на уровне общины в Уганде. BMC Public Health 15 , 175 (2015).

    PubMed PubMed Central Статья Google Scholar

  • 15.

    Домингес-Андрес, Дж. И Нетеа, М. Г. Долгосрочное перепрограммирование врожденной иммунной системы. J. Leukoc. Биол . 105 , 329–338 (2018).

    PubMed Статья CAS Google Scholar

  • 16.

    Berendsen, M. L. T. et al. Материнское праймирование: рубцевание от вакцины против бациллы Кальметта-Герена (БЦЖ) у матерей увеличивает выживаемость их ребенка с рубцом от вакцины БЦЖ. J. Pediatric Infect. Дис. Soc. https://doi.org/10.1093/jpids/piy142 (2019).

    Артикул Google Scholar

  • 17.

    Мур, Р. С., Калецки, Р. и Мерфи, К. Т. Пиви / PRG-1 аргонавтомат и TGF-β опосредуют трансгенеративное наученное избегание патогенов. Cell 177 , 1827–1841 (2019).

    CAS PubMed Статья Google Scholar

  • 18.

    Хирано, М., Дас, С., Го, П. и Купер, М. Д. Эволюция адаптивного иммунитета у позвоночных. дюйм Adv. Иммунол. 109 , 125–157 (2011).

    CAS PubMed Статья Google Scholar

  • 19.

    Купер, М. Д. и Олдер, М.Н. Эволюция адаптивных иммунных систем. Cell 124 , 815–822 (2006).

    CAS PubMed Статья Google Scholar

  • 20.

    Первис, А. и Гектор, А. Получение меры биоразнообразия. Nature 405 , 212–219 (2000).

    CAS PubMed Статья Google Scholar

  • 21.

    Милутинович, Б. и Курц, Дж.Иммунная память у беспозвоночных. Семин. Иммунол. 28 , 328–342 (2016).

    PubMed Статья CAS Google Scholar

  • 22.

    Реймер-Михальски, Э.-М. И Конрат, У. Врожденная иммунная память у растений. Семин. Иммунол. 28 , 319–327 (2016).

    CAS PubMed Статья Google Scholar

  • 23.

    Kleinnijenhuis, J.и другие. Бацилла Кальметта-Герена индуцирует NOD2-зависимую неспецифическую защиту от повторного заражения посредством эпигенетического репрограммирования моноцитов. Proc. Natl Acad. Sci. США 109 , 17537–17542 (2012).

    CAS PubMed Статья Google Scholar

  • 24.

    Ди Луцио, Н. Р. и Уильямс, Д. Л. Защитный эффект глюкана против системной септицемии Staphylococcus aureus у нормальных и лейкемических мышей. Заражение. Иммун. 20 , 804–810 (1978).

    PubMed PubMed Central Статья Google Scholar

  • 25.

    Marakalala, M. J. et al. Дектин-1 играет избыточную роль в иммуномодулирующей активности лигандов, богатых β-глюканом, in vivo. Microbes Infect. 15 , 511–515 (2013).

    CAS PubMed PubMed Central Статья Google Scholar

  • 26.

    Крахенбуль, Дж. Л., Шарма, С. Д., Феррарези, Р. В. и Ремингтон, Дж. С. Влияние лечения мурамилдипептидом на устойчивость к инфекции Toxoplasma gondii у мышей. Заражение. Иммун. 31 , 716–722 (1981).

    CAS PubMed PubMed Central Статья Google Scholar

  • 27.

    Ribes, S. et al. Внутрибрюшинная профилактика с использованием CpG-олигодезоксинуклеотидов защищает мышей с нейтропенией от внутримозгового инфицирования Escherichia coli K1. J. Нейровоспаление 11 , 14 (2014).

    PubMed PubMed Central Статья CAS Google Scholar

  • 28.

    Muñoz, N. et al. Введение флагеллина в слизистые оболочки защищает мышей от инфекции легких, вызванной стрептококком Streptococcus pneumoniae, . Заражение. Иммун. 78 , 4226–4233 (2010).

    PubMed PubMed Central Статья CAS Google Scholar

  • 29.

    Zhang, B. et al. Вирусная инфекция. Профилактика и лечение ротавирусной инфекции посредством TLR5 / NLRC4-опосредованной продукции IL-22 и IL-18. Наука 346 , 861–865 (2014).

    CAS PubMed PubMed Central Статья Google Scholar

  • 30.

    van’t Wout, J. W., Poell, R. & van Furth, R. Роль макрофагов, активированных BCG / PPD, в устойчивости к системному кандидозу у мышей. Сканд.J. Immunol. 36 , 713–719 (1992).

    Артикул Google Scholar

  • 31.

    Tribouley, J., Tribouley-Duret, J. & Appriou, M. Влияние бациллы Callmette Guerin (BCG) на восприимчивость голых мышей к Schistosoma mansoni . C. R. Seances Soc. Биол. Fil. 172 , 902–904 (1978).

    CAS PubMed Google Scholar

  • 32.

    Kaufmann, E. et al. БЦЖ обучает гемопоэтические стволовые клетки создавать защитный врожденный иммунитет против туберкулеза. Cell 172 , 176–190.e19 (2018). В этой статье показано, что доступ BCG к костному мозгу изменяет транскрипционный ландшафт HSCs и мультипотентных предшественников, что приводит к локальной экспансии клеток и усилению миелопоэза .

    CAS PubMed Статья Google Scholar

  • 33.

    Bromuro, C. et al. Взаимодействие между защитными и ингибирующими антителами определяет исход экспериментально диссеминированного кандидоза у реципиентов вакцины Candida albicans . Заражение. Иммун. 70 , 5462–5470 (2002).

    CAS PubMed PubMed Central Статья Google Scholar

  • 34.

    Polonelli, L. et al. Терапевтическая активность сконструированного синтетического фрагмента антиидиотипического антитела-киллера против экспериментального кандидоза слизистой оболочки и системного кандидоза. Заражение. Иммун. 71 , 6205–6212 (2003).

    CAS PubMed PubMed Central Статья Google Scholar

  • 35.

    Bistoni, F. et al. Доказательства опосредованной макрофагами защиты от летальной инфекции Candida albicans . Заражение. Иммун. 51 , 668–674 (1986).

    CAS PubMed PubMed Central Статья Google Scholar

  • 36.

    Bistoni, F. et al. Иммуномодуляция низковирулентным агерминативным вариантом Candida albicans . Дополнительные доказательства активации макрофагов как одного из эффекторных механизмов неспецифической противоинфекционной защиты. J. Med. Вет. Mycol. 26 , 285–299 (1988).

    CAS PubMed Статья Google Scholar

  • 37.

    Quintin, J. et al. Candida albicans инфекция обеспечивает защиту от повторного заражения посредством функционального перепрограммирования моноцитов. Клеточный микроб-хозяин 12 , 223–232 (2012).

    CAS PubMed Статья Google Scholar

  • 38.

    Vecchiarelli, A. et al. Защитный иммунитет, индуцированный низкой вирулентностью Candida albicans : продукция цитокинов в развитии противоинфекционного состояния. Cell. Иммунол. 124 , 334–344 (1989).

    CAS PubMed Статья Google Scholar

  • 39.

    Tso, G.H. W. et al. Экспериментальная эволюция грибкового патогена в кишечного симбионта. Наука 362 , 589–595 (2018).

    CAS PubMed Статья Google Scholar

  • 40.

    Biering-Sørensen, S. et al. Ранняя вакцинация BCG-Дания и неонатальная смертность среди младенцев с массой тела <2500 г: рандомизированное контролируемое исследование. Clin. Заразить. Дис. 65 , 1183–1190 (2017).

    PubMed PubMed Central Статья Google Scholar

  • 41.

    Rieckmann, A. et al. Вакцинация против оспы и туберкулеза увеличивает долгосрочную выживаемость: датское когортное исследование 1971–2010 гг. Внутр. J. Epidemiol. 46 , 695–705 (2017). Это исследование показало, что вакцинация против осповакцины и БЦЖ увеличивает долгосрочную выживаемость, что не объясняется патоген-специфической иммунной защитой, которую обеспечивают эти вакцины. .

    PubMed Google Scholar

  • 42.

    Aaby, P. et al. Шрамы от осповакцины связаны с лучшей выживаемостью взрослых. Наблюдательное исследование из Гвинеи-Бисау. Вакцина 24 , 5718–5725 (2006).

    PubMed Статья Google Scholar

  • 43.

    Aaby, P. et al. Рандомизированное испытание вакцинации БЦЖ детям с низкой массой тела при рождении: положительные неспецифические эффекты в неонатальном периоде? J. Infect. Дис. 204 , 245–252 (2011).

    CAS PubMed Статья Google Scholar

  • 44.

    Aaby, P. et al. Неспецифический положительный эффект иммунизации против кори: анализ исследований смертности в развивающихся странах. BMJ 311 , 481–485 (1995). В этом исследовании сообщается, что противокоревая вакцина со стандартным титром может оказывать положительный эффект, не связанный со специфической защитой от кори .

    CAS PubMed PubMed Central Статья Google Scholar

  • 45.

    Aaby, P. et al. Неспецифические эффекты стандартной противокоревой вакцины в возрасте 4,5 и 9 месяцев на детскую смертность: рандомизированное контролируемое исследование. BMJ 341 , c6495 (2010).

    PubMed PubMed Central Статья Google Scholar

  • 46.

    Lund, N. et al. Влияние пероральной вакцины против полиомиелита при рождении на младенческую смертность: рандомизированное исследование. Clin. Заразить. Дис. 61 , 1504–1511 (2015).

    PubMed PubMed Central Статья Google Scholar

  • 47.

    Andersen, A. et al. Национальные кампании иммунизации пероральной вакциной против полиомиелита снижают общую смертность: естественный эксперимент в рамках семи рандомизированных испытаний. Фронт. Общественное здравоохранение 6 , 13 (2018).

    PubMed PubMed Central Статья Google Scholar

  • 48.

    Бенн, К.С., Нетеа, М. Г., Селин, Л. К. и Аби, П. Небольшой укол - большой эффект: неспецифическая иммуномодуляция вакцинами. Trends Immunol. 34 , 431–439 (2013).

    CAS PubMed Статья Google Scholar

  • 49.

    Kleinnijenhuis, J. et al. БЦЖ-индуцированный тренированный иммунитет в NK-клетках: роль в неспецифической защите от инфекции. Clin. Иммунол. 155 , 213–219 (2014).

    CAS PubMed PubMed Central Статья Google Scholar

  • 50.

    Jensen, K. J. et al. Гетерологические иммунологические эффекты ранней вакцинации БЦЖ у детей с низкой массой тела при рождении в Гвинее-Бисау: рандомизированное контролируемое исследование. J. Infect. Дис. 211 , 956–967 (2015).

    CAS PubMed Статья Google Scholar

  • 51.

    Freyne, B. et al. Вакцинация новорожденных БЦЖ влияет на цитокиновые реакции на лиганды толл-подобных рецепторов и гетерологичные антигены. J. Infect.Дис. 217 , 1798–1808 (2018).

    CAS PubMed Статья Google Scholar

  • 52.

    Aaby, P. et al. Различия в женской и мужской смертности после вакцинации против кори с высоким титром и связь с последующей вакцинацией против дифтерии, столбняка и коклюша и инактивированного полиовируса: повторный анализ исследований в Западной Африке. Ланцет 361 , 2183–2188 (2003).

    PubMed Статья Google Scholar

  • 53.

    Blok, B.A. et al. Взаимодействие неспецифических иммунологических эффектов вакцинации БЦЖ и TDAPF: исследовательское рандомизированное исследование. Clin. Заразить. Дис. 70 , 455–463 (2019).

    Google Scholar

  • 54.

    Arts, R. J. W. et al. Вакцинация БЦЖ защищает людей от экспериментальной вирусной инфекции за счет индукции цитокинов, связанных с тренированным иммунитетом. Cell Host Microbe 23 , 89–100 (2018).

    CAS PubMed Статья Google Scholar

  • 55.

    Walk, J. et al. Исходы контролируемой инфекции малярии человека после вакцинации БЦЖ. Nat. Commun. 10 , 874 (2019).

    PubMed PubMed Central Статья Google Scholar

  • 56.

    McCall, M. B. B. et al. Инфекция Plasmodium falciparum вызывает провоспалительное праймирование человеческих TLR-ответов. J. Immunol. 179 , 162–171 (2007).

    CAS PubMed Статья Google Scholar

  • 57.

    Ataide, M. A. et al. Индуцированная малярией активация NLRP12 / NLRP3-зависимой каспазы-1 опосредует воспаление и гиперчувствительность к бактериальной суперинфекции. PLoS Pathog. 10 , e1003885 (2014).

    PubMed PubMed Central Статья CAS Google Scholar

  • 58.

    Fitzgerald, K. A. et al. Передний край: Plasmodium falciparum вызывает выработанный врожденный иммунитет. J. Immunol. 6 , 1243–1248 (2018).

    Google Scholar

  • 59.

    Редельман-Сиди, Г., Гликман, М. С. и Бохнер, Б. Х. Механизм действия БЦЖ-терапии рака мочевого пузыря - современная перспектива. Nat. Преподобный Урол. 11 , 153–162 (2014).

    CAS PubMed Статья Google Scholar

  • 60.

    Стюарт, Дж. Х. и Левин, Э. А. Роль бациллы Кальметта-Герена в лечении прогрессирующей меланомы. Эксперт. Преподобный Anticancer. Ther. 11 , 1671–1676 (2011).

    PubMed Статья Google Scholar

  • 61.

    Powles, R. L. et al. Поддержание ремиссии при остром миелолейкозе смесью B.C.G. и облученные лейкозные клетки. Ланцет 2 , 1107–1110 (1977).

    CAS PubMed Статья Google Scholar

  • 62.

    Villumsen, M. et al. Риск лимфомы и лейкемии после вакцинации против бациллы Кальметта-Герена и оспы: когортное исследование в Дании. Вакцина 27 , 6950–6958 (2009).

    PubMed Статья Google Scholar

  • 63.

    Buffen, K. et al. Аутофагия контролирует индуцированный БЦЖ тренированный иммунитет и ответ на внутрипузырную терапию БЦЖ при раке мочевого пузыря. PLoS Pathog. 10 , e1004485 (2014).

    PubMed PubMed Central Статья CAS Google Scholar

  • 64.

    Фостер, С. Л., Харгривз, Д. С. и Меджитов, Р. Ген-специфический контроль воспаления с помощью TLR-индуцированных модификаций хроматина. Nature 447 , 972–978 (2007).

    CAS PubMed Статья Google Scholar

  • 65.

    Saeed, S. et al. Эпигенетическое программирование дифференцировки моноцитов и макрофагов и тренированный врожденный иммунитет. Наука 345 , 1251086 (2014). Эта статья показывает, что изменение эпигенетического ландшафта стоит за эффектами тренированного иммунитета в человеческих моноцитах .

    PubMed PubMed Central Статья CAS Google Scholar

  • 66.

    Chen, F. et al. Нейтрофилы инициируют фенотип долгоживущих эффекторных макрофагов, который опосредует ускоренное изгнание гельминтов. Nat. Иммунол. 15 , 938–946 (2014).

    CAS PubMed PubMed Central Статья Google Scholar

  • 67.

    Hole, C. R. et al. Индукция ответов дендритных клеток, подобных памяти, in vivo. Nat. Commun. 10 , 2955 (2019).

    PubMed PubMed Central Статья CAS Google Scholar

  • 68.

    Бартон, Э.S. et al. Латентный период вируса герпеса обеспечивает симбиотическую защиту от бактериальной инфекции. Nature 447 , 326–329 (2007).

    CAS PubMed Статья Google Scholar

  • 69.

    Сан, Дж. К., Бейлке, Дж. Н. и Ланье, Л. Л. Адаптивные иммунные свойства естественных клеток-киллеров. Nature 457 , 557–561 (2009).

    CAS PubMed PubMed Central Статья Google Scholar

  • 70.

    Sun, J. C. et al. Передача сигналов провоспалительных цитокинов необходима для генерации памяти естественных клеток-киллеров. J. Exp. Med. 209 , 947–954 (2012).

    CAS PubMed PubMed Central Статья Google Scholar

  • 71.

    Björkström, N. K. et al. Быстрое распространение и длительное сохранение повышенного количества NK-клеток у людей, инфицированных хантавирусом. J. Exp. Med. 208 , 13–21 (2011).

    PubMed PubMed Central Статья CAS Google Scholar

  • 72.

    Della Chiesa, M. et al. Фенотипическая и функциональная гетерогенность NK-клеток человека, развивающихся после трансплантации пуповинной крови: роль цитомегаловируса человека? Кровь 119 , 399–410 (2012).

    PubMed Статья CAS Google Scholar

  • 73.

    Foley, B. et al. NKG2C + NKG2C + , индуцированные цитомегаловирусом человека (CMV), являются NK-клетками, которые можно трансплантировать и размножать in vivo в ответ на антиген CMV реципиента. J. Immunol. 189 , 5082–5088 (2012).

    CAS PubMed PubMed Central Статья Google Scholar

  • 74.

    Arase, H., Mocarski, E. S., Campbell, A. E., Hill, A. B. & Lanier, L. L. Прямое распознавание цитомегаловируса путем активации и ингибирования рецепторов NK-клеток. Наука 296 , 1323–1326 (2002).

    CAS PubMed Статья Google Scholar

  • 75.

    Brown, M. G. et al. Жизненно важное участие рецептора активации естественных клеток-киллеров в сопротивлении вирусной инфекции. Наука 292 , 934–937 (2001).

    CAS PubMed Статья Google Scholar

  • 76.

    Адамс, Н.M. et al. Цитомегаловирусная инфекция стимулирует авидный отбор естественных клеток-киллеров. Иммунитет 50 , 1381–1390.e5 (2019).

    CAS PubMed Статья PubMed Central Google Scholar

  • 77.

    Grassmann, S. et al. Отчетливая поверхностная экспрессия активирующего рецептора Ly49H приводит к дифференциальной экспансии клонов NK-клеток при инфицировании цитомегаловирусом мышей. Иммунитет 50 , 1391–1400.e4 (2019).

    CAS PubMed Статья Google Scholar

  • 78.

    Sun, J. C. & Lanier, L. L. Развитие, гомеостаз и функция NK-клеток: параллели с CD8 + T-клетками. Nat. Rev. Immunol. 11 , 645–657 (2011).

    CAS PubMed PubMed Central Статья Google Scholar

  • 79.

    Мин-Оо, Г. и Ланье, Л.L. Cytomegalovirus генерирует долгоживущие антиген-специфические NK-клетки с пониженной активацией сторонних наблюдателей к гетерологичной инфекции. J. Exp. Med. 211 , 2669–2680 (2014).

    CAS PubMed PubMed Central Статья Google Scholar

  • 80.

    Rölle, A. et al. IL-12-продуцирующие моноциты и HLA-E контролируют HCMV-управляемую экспансию NKG2C + NK-клеток. J. Clin. Вкладывать деньги. 124 , 5305–5316 (2014).

    PubMed PubMed Central Статья Google Scholar

  • 81.

    Hammer, Q. et al. Пептид-специфическое распознавание штаммов цитомегаловируса человека контролирует адаптивные естественные клетки-киллеры. Nat. Иммунол. 19 , 453–463 (2018).

    CAS PubMed Статья Google Scholar

  • 82.

    Каро, Дж. М., Шатц, Д. Г. и Сан, Дж. С. Рекомбиназа RAG определяет функциональную гетерогенность и приспособленность естественных клеток-киллеров. Cell 159 , 94–107 (2014).

    CAS PubMed PubMed Central Статья Google Scholar

  • 83.

    Vivier, E. et al. Врожденный или адаптивный иммунитет? Пример естественных клеток-киллеров. Science 331 , 44–49 (2011).

    CAS PubMed PubMed Central Статья Google Scholar

  • 84.

    Купер, М.A. et al. Цитокин-индуцированные естественные клетки-киллеры, похожие на память. Proc. Natl Acad. Sci. США 106 , 1915–1919 (2009).

    CAS PubMed Статья Google Scholar

  • 85.

    Romee, R. et al. Активация цитокинов вызывает человеческие NK-клетки, подобные памяти. Кровь 120 , 4751–4760 (2012).

    CAS PubMed PubMed Central Статья Google Scholar

  • 86.

    Romee, R. et al. Цитокин-индуцированные естественные клетки-киллеры, подобные памяти, демонстрируют усиленный ответ против миелоидного лейкоза. Sci. Transl Med. 8 , 357ra123 (2016).

    PubMed PubMed Central Статья CAS Google Scholar

  • 87.

    Madera, S. et al. IFN типа I способствует размножению NK-клеток во время вирусной инфекции, защищая NK-клетки от братоубийства. J. Exp. Med. 213 , 225–233 (2016).

    CAS PubMed PubMed Central Статья Google Scholar

  • 88.

    Мадера, С. и Сан, Дж. К. Передовой край: специфическая потребность стадии IL-18 для размножения противовирусных NK-клеток. J. Immunol. 194 , 1408–1412 (2015).

    CAS PubMed PubMed Central Статья Google Scholar

  • 89.

    Набекура, Т., Жирар, Дж.-П. & Lanier, L.L. Рецептор ST2 к IL-33 усиливает распространение NK-клеток и усиливает защиту хозяина во время инфекции цитомегаловирусом мыши. J. Immunol. 194 , 5948–5952 (2015).

    CAS PubMed PubMed Central Статья Google Scholar

  • 90.

    Weizman, O.-E. и другие. ILC1, пережившие цитомегаловирус мыши, приобретают ответ памяти, зависящий от вирусного гликопротеина m12. Nat. Иммунол. 20 , 1004–1011 (2019).

    CAS PubMed PubMed Central Статья Google Scholar

  • 91.

    Martinez-Gonzalez, I. et al. Врожденные лимфоидные клетки группы 2, пережившие аллергию, приобретают свойства памяти и усиливают аллергическое воспаление легких. Иммунитет 45 , 198–208 (2016).

    CAS PubMed Статья Google Scholar

  • 92.

    Paust, S. et al. Критическая роль хемокинового рецептора CXCR6 в антиген-специфической памяти гаптенов и вирусов, опосредованной NK-клетками. Nat. Иммунол. 11 , 1127–1135 (2010).

    CAS PubMed PubMed Central Статья Google Scholar

  • 93.

    Gamliel, M. et al. Тренированная память о человеческих NK-клетках матки улучшает их функцию при последующих беременностях. Иммунитет 48 , 951–962 (2018). Это исследование показало, что NK-клетки матки адаптируются к беременности и могут лучше поддерживать последующие беременности .

    CAS PubMed Статья Google Scholar

  • 94.

    Гонсалес, К. А. У. и Фукс, Э. Кожа и ее регенеративные способности: союз между стволовыми клетками и их нишей. Dev. Ячейка 43 , 387–401 (2017).

    CAS PubMed Статья Google Scholar

  • 95.

    Наик, С., Ларсен, С. Б., Коули, К. Дж. И Фукс, Э. Два танго: диалог между иммунитетом и стволовыми клетками при здоровье и болезни. Ячейка 175 , 908–920 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 96.

    Biton, M. et al. Цитокины Т-хелперов модулируют обновление и дифференцировку стволовых клеток кишечника. Ячейка 175 , 1307–1320 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 97.

    Lindemans, C.A. et al. Интерлейкин-22 способствует опосредованной кишечными стволовыми клетками эпителиальной регенерации. Природа 528 , 560–564 (2015).

    CAS PubMed PubMed Central Статья Google Scholar

  • 98.

    фон Мольтке, Дж., Цзи, М., Лян, Х.-Э. & Locksley, R.M. IL-25, полученный из клеток пучка, регулирует цепь ответа кишечника ILC2 – эпителий. Природа 529 , 221–225 (2016).

    Артикул CAS Google Scholar

  • 99.

    Kamada, R. et al. Стимуляция интерфероном создает метки хроматина и устанавливает транскрипционную память. Proc. Natl Acad. Sci. США 115 , E9162 – E9171 (2018).

    CAS PubMed Статья Google Scholar

  • 100.

    Merad, M., Sathe, P., Helft, J., Miller, J. & Mortha, A. Линия дендритных клеток: онтогенез и функция дендритных клеток и их подмножеств в устойчивом состоянии и воспаленная установка. Annu. Rev. Immunol. 31 , 563–604 (2013).

    CAS PubMed Статья Google Scholar

  • 101.

    Yona, S. et al. Картирование судьбы показывает происхождение и динамику моноцитов и тканевых макрофагов в условиях гомеостаза. Иммунитет 38 , 79–91 (2013).

    CAS PubMed Статья Google Scholar

  • 102.

    Патель, А.A. et al. Судьба и продолжительность жизни субпопуляций человеческих моноцитов в устойчивом состоянии и при системном воспалении. J. Exp. Med. 214 , 1913–1923 (2017).

    CAS PubMed PubMed Central Статья Google Scholar

  • 103.

    Chavakis, T., Mitroulis, I. & Hajishengallis, G. Гематопоэтические клетки-предшественники как интегративные центры для адаптации и тонкой настройки воспаления. Nat. Иммунол. 20 , 802–811 (2019).

    CAS PubMed PubMed Central Статья Google Scholar

  • 104.

    Mitroulis, I. et al. Модуляция предшественников миелопоэза - неотъемлемый компонент тренированного иммунитета. Cell 172 , 147–161 (2018). Это исследование показывает, что индукция тренированного иммунитета модулирует метаболизм гематопоэтических предшественников в костном мозге и увеличивает миелопоэз .

    CAS PubMed PubMed Central Статья Google Scholar

  • 105.

    Ordovas-Montanes, J. et al. Аллергическая воспалительная память в клетках-предшественниках респираторного эпителия человека. Природа 560 , 649–654 (2018). В этой статье показано, что эпителиальные стволовые клетки способствуют сохранению болезней человека, служа хранилищами аллергических воспоминаний .

    CAS PubMed PubMed Central Статья Google Scholar

  • 106.

    Machiels, B. et al. Гаммагерпесвирус обеспечивает защиту от аллергической астмы, вызывая замену резидентных альвеолярных макрофагов регуляторными моноцитами. Nat. Иммунол. 18 , 1310–1320 (2017).

    CAS PubMed Статья Google Scholar

  • 107.

    Yao, Y. et al. Индукция автономных альвеолярных макрофагов памяти требует помощи Т-лимфоцитов и имеет решающее значение для тренированного иммунитета. Ячейка 175 , 1634–1650.e17 (2018). Это исследование обнаруживает, что формирование и поддержание альвеолярных макрофагов, демонстрирующих особенности памяти, происходит независимо от моноцитов или предшественников костного мозга .

    CAS PubMed Статья Google Scholar

  • 108.

    Смейл, С. Т., Тараховский, А. и Натоли, Г. Вклад хроматина в регуляцию врожденного иммунитета. Annu. Rev. Immunol. 32 , 489–511 (2014).

    CAS PubMed Статья Google Scholar

  • 109.

    Ghisletti, S. et al. Идентификация и характеристика энхансеров, контролирующих программу экспрессии воспалительных генов в макрофагах. Иммунитет 32 , 317–328 (2010).

    CAS PubMed Статья Google Scholar

  • 110.

    Fanucchi, S. et al. Иммунные гены примированы для надежной транскрипции проксимальными длинными некодирующими РНК, расположенными в ядерных компартментах. Nat. Genet. 51 , 138–150 (2019). Это исследование показывает, что lncRNA-опосредованная регуляция играет центральную роль в установлении тренированного иммунитета .

    CAS PubMed Статья Google Scholar

  • 111.

    Натоли, Г. и Остуни, Р. Адаптация и память в иммунных ответах. Nat. Иммунол. 20 , 783–792 (2019).

    CAS PubMed Статья Google Scholar

  • 112.

    Luetke-Eversloh, M. et al. Цитомегаловирус человека управляет эпигенетическим импринтингом локуса IFNG в естественных клетках-киллерах NKG2Chi. PLoS Pathog. 10 , e1004441 (2014).

    PubMed PubMed Central Статья CAS Google Scholar

  • 113.

    Lau, C.M. et al. Эпигенетический контроль врожденной и адаптивной иммунной памяти. Nat. Иммунол. 19 , 963–972 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 114.

    Rapp, M. et al. Фактор связывания ядра β и факторы транскрипции Runx способствуют адаптивным ответам естественных клеток-киллеров. Sci. Иммунол. 2 , eaan3796 (2017).

    PubMed PubMed Central Статья Google Scholar

  • 115.

    Geary, C. D. et al. Неизбыточные компоненты ISGF3 способствуют выживанию NK-клеток саморегулирующим образом во время вирусной инфекции. Cell Rep. 24 , 1949–1957.e6 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 116.

    Лам В. К., Фолкерсен Л., Агилар О. А. и Ланье Л. Л. KLF12 регулирует пролиферацию NK-клеток мыши. J. Immunol. 203 , 981–989 (2019).

    CAS PubMed Статья Google Scholar

  • 117.

    Adams, N. M. et al. Фактор транскрипции IRF8 управляет адаптивным ответом естественных клеток-киллеров. Иммунитет 48 , 1172–1182.e6 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 118.

    Madera, S. et al. Передний край: расходящиеся требования факторов транскрипции Т-бокса в эффекторных NK-клетках и NK-клетках памяти. J. Immunol. 200 , 1977–1981 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 119.

    Zawislak, C. L. et al. Стадия-специфическая регуляция гомеостаза естественных клеток-киллеров и ответ на вирусную инфекцию с помощью микроРНК-155. Proc. Natl Acad. Sci. США 110 , 6967–6972 (2013).

    CAS PubMed Статья Google Scholar

  • 120.

    Лу, Л.-Ф. и другие. Одиночное взаимодействие miRNA-mRNA влияет на иммунный ответ в зависимости от контекста и типа клетки. Иммунитет 43 , 52–64 (2015).

    CAS PubMed PubMed Central Статья Google Scholar

  • 121.

    О’Коннелл, Р. М., Чаудхури, А. А., Рао, Д. С. и Балтимор, Д. Инозитолфосфатаза SHIP1 является основной мишенью для miR-155. Proc. Natl Acad. Sci. США 106 , 7113–7118 (2009).

    PubMed Статья Google Scholar

  • 122.

    Saz-Leal, P. et al. Нацеливание SHIP-1 на миелоидные клетки усиливает тренированный иммунитет и усиливает реакцию на инфекцию. Cell Rep. 25 , 1118–1126 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 123.

    Verma, D. et al. Антимикобактериальная активность коррелирует с измененным паттерном метилирования ДНК в иммунных клетках субъектов, вакцинированных БЦЖ. Sci. Отчет 7 , 12305 (2017).

    PubMed PubMed Central Статья CAS Google Scholar

  • 124.

    Дас, Дж., Верма, Д., Густафссон, М. и Лерм, М. Идентификация паттернов метилирования ДНК, предрасполагающих к эффективному ответу на вакцинацию БЦЖ у здоровых субъектов, не получавших БЦЖ. Эпигенетика 14 , 589–601 (2019).

    PubMed PubMed Central Статья Google Scholar

  • 125.

    Пенков С., Митроулис И., Хаджишенгаллис Г. и Чавакис Т. Иммунометаболические перекрестные помехи: наследственный принцип тренированного иммунитета? Trends Immunol. 40 , 1–11 (2019).

    CAS PubMed Статья Google Scholar

  • 126.

    Norata, G. D. et al. Клеточные и молекулярные основы трансляционного иммунометаболизма. Иммунитет 43 , 421–434 (2015).

    CAS PubMed Статья Google Scholar

  • 127.

    Домингес-Андрес, Дж., Йостен, Л. А. и Нетеа, М. Г. Индукция врожденной иммунной памяти: роль клеточного метаболизма. Curr. Opin. Иммунол. 56 , 10–16 (2019).

    PubMed Статья CAS Google Scholar

  • 128.

    Донохо Д. Р. и Бултман С. Дж. Метаболоэпигенетика: взаимосвязь между энергетическим метаболизмом и эпигенетическим контролем экспрессии генов. J. Cell. Physiol. 227 , 3169–3177 (2012).

    CAS PubMed PubMed Central Статья Google Scholar

  • 129.

    Cheng, S.-C. и другие. mTOR- и HIF-1-опосредованный аэробный гликолиз как метаболическая основа тренированного иммунитета. Наука 345 , 1250684–1250684 (2014). Это исследование сообщает, что метаболическая перестройка клеток имеет решающее значение для индукции тренированного иммунитета .

    PubMed PubMed Central Статья CAS Google Scholar

  • 130.

    Arts, R. J. W. et al. Иммунометаболические пути в тренированном иммунитете, индуцированном БЦЖ. Cell Rep. 17 , 2562–2571 (2016).

    CAS PubMed PubMed Central Статья Google Scholar

  • 131.

    Arts, R. J. W. et al. Глутаминолиз и накопление фумарата объединяют иммунометаболические и эпигенетические программы в тренированном иммунитете. Cell Metab. https://doi.org/10.1016/j.cmet.2016.10.008 (2016).

    Артикул PubMed PubMed Central Google Scholar

  • 132.

    Liu, P.-S. и другие. α-Кетоглутарат управляет активацией макрофагов посредством метаболического и эпигенетического репрограммирования. Nat. Иммунол. 18 , 985–994 (2017).

    CAS PubMed Статья Google Scholar

  • 133.

    Tannahill, G.M. et al. Сукцинат представляет собой воспалительный сигнал, который индуцирует IL-1β через HIF-1α. Природа 496 , 238–242 (2013).

    CAS PubMed PubMed Central Статья Google Scholar

  • 134.

    Lampropoulou, V. et al. Итаконат связывает ингибирование сукцинатдегидрогеназы с метаболическим ремоделированием макрофагов и регуляцией воспаления. Cell Metab. 24 , 158–166 (2016).

    CAS PubMed PubMed Central Статья Google Scholar

  • 135.

    Cordes, T. et al. Иммунореактивный ген 1 и итаконат ингибируют сукцинатдегидрогеназу, модулируя внутриклеточные уровни сукцината. J. Biol. Chem. 291 , 14274–14284 (2016).

    CAS PubMed PubMed Central Статья Google Scholar

  • 136.

    Mills, E. L. et al. Итаконат - противовоспалительный метаболит, который активирует Nrf2 посредством алкилирования KEAP1. Природа 556 , 113–117 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 137.

    Бамбускова М. и др. Электрофильные свойства итаконата и его производных регулируют воспалительную ось IκBζ – ATF3. Природа 556 , 501–504 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 138.

    Dominguez-Andres, J. et al.Итаконатный путь является центральным регуляторным узлом, связывающим врожденную иммунную толерантность и тренированный иммунитет. Ячейка Метаб . 29 , 211–220 (2018).

    PubMed Статья CAS Google Scholar

  • 139.

    Bekkering, S. et al. Метаболическая индукция тренированного иммунитета через мевалонатный путь. Ячейка 172 , 135–146.e9 (2018).

    CAS PubMed Статья Google Scholar

  • 140.

    Yvan-Charvet, L. et al. АТФ-связывающие кассетные транспортеры и ЛПВП подавляют пролиферацию гемопоэтических стволовых клеток. Наука 328 , 1689–1693 (2010).

    CAS PubMed PubMed Central Статья Google Scholar

  • 141.

    Murphy, A.J. et al. ApoE регулирует пролиферацию гемопоэтических стволовых клеток, моноцитоз и накопление моноцитов в атеросклеротических поражениях у мышей. J. Clin. Вкладывать деньги. 121 , 4138–4149 (2011).

    CAS PubMed PubMed Central Статья Google Scholar

  • 142.

    Христос, А. и Латц, Э. Западный образ жизни оказывает длительное влияние на мета воспламенение. Nat. Rev. Immunol. 19 , 267–268 (2019).

    CAS PubMed Статья Google Scholar

  • 143.

    Мушер, Д. М., Аберс, М.С. и Корралес-Медина, В. Ф. Острая инфекция и инфаркт миокарда. N. Engl. J. Med. 380 , 171–176 (2019).

    CAS PubMed Статья Google Scholar

  • 144.

    Leentjens, J. et al. Тренировали врожденный иммунитет как новый механизм, связывающий инфекцию и развитие атеросклероза. Circ. Res. 122 , 664–669 (2018).

    CAS PubMed Статья Google Scholar

  • 145.

    Bekkering, S. et al. Окисленный липопротеин низкой плотности вызывает долгосрочную продукцию провоспалительных цитокинов и образование пенистых клеток посредством эпигенетического репрограммирования моноцитов. Артериосклер. Тромб. Васк. Биол. 34 , 1731–1738 (2014).

    CAS PubMed Статья Google Scholar

  • 146.

    Braza, M. S. et al. Подавление воспаления с помощью нанобиологических препаратов, специфичных для миелоидных клеток, способствует приемлемости трансплантата. Иммунитет 49 , 819–828 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 147.

    van der Valk, F. M. et al. Окисленные фосфолипиды на липопротеине (а) вызывают воспаление артериальной стенки и воспалительный ответ моноцитов у людей. Тираж 134 , 611–624 (2016).

    PubMed PubMed Central Статья CAS Google Scholar

  • 148.

    Bekkering, S. et al. Лечение статинами не восстанавливает тренированный иммунитет у пациентов с семейной гиперхолестеринемией. Cell Metab. 30 , 1-2 (2019).

    CAS PubMed Статья Google Scholar

  • 149.

    Bekkering, S. et al. Активация врожденных иммунных клеток и эпигенетическое ремоделирование при симптоматическом и бессимптомном атеросклерозе у людей in vivo. Атеросклероз 254 , 228–236 (2016).

    CAS PubMed Статья Google Scholar

  • 150.

    Shirai, T. et al. Гликолитический фермент PKM2 устраняет метаболические и воспалительные нарушения при ишемической болезни сердца. J. Exp. Med. 213 , 337–354 (2016).

    CAS PubMed PubMed Central Статья Google Scholar

  • 151.

    Циммерманн, П., Финн, А. и Кертис, Н.Защищает ли вакцинация БЦЖ от нетуберкулезной микобактериальной инфекции? Систематический обзор и метаанализ. J. Infect. Дис. 218 , 679–687 (2018).

    CAS PubMed Статья Google Scholar

  • 152.

    Leentjens, J. et al. Вакцинация БЦЖ повышает иммуногенность последующей вакцинации против гриппа у здоровых добровольцев: рандомизированное плацебо-контролируемое пилотное исследование. J. Infect.Дис. 212 , 1930–1938 (2015).

    CAS PubMed Статья Google Scholar

  • 153.

    Рансохофф Р. М. Как нейровоспаление способствует нейродегенерации. Наука 353 , 777–783 (2016).

    CAS PubMed PubMed Central Статья Google Scholar

  • 154.

    Wendeln, A.-C. и другие. Врожденная иммунная память мозга формирует признаки неврологических заболеваний. Природа 556 , 332–338 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 155.

    Frost, P. S. et al. Инфекция новорожденных приводит к повышенной восприимчивости к воспалению мозга, вызванному олигомером Aβ, потере синапсов и когнитивным нарушениям у мышей. Cell Death Dis. 10 , 323 (2019).

    PubMed PubMed Central Статья CAS Google Scholar

  • 156.

    Лоу, А., Мак, Э., Роу, Дж. Б., Маркус, Х. С. и О’Брайен, Дж. Т. Воспаление и болезнь мелких сосудов головного мозга: систематический обзор. Aging Res. Ред. 53 , 100916 (2019).

    CAS PubMed Статья Google Scholar

  • 157.

    Noz, M. P. et al. Характеристики тренированного иммунитета связаны с прогрессирующим заболеванием мелких сосудов головного мозга. Инсульт 49 , 2910–2917 (2018).

    PubMed Статья Google Scholar

  • 158.

    Franceschi, C. et al. Иммунобиография и неоднородность иммунных ответов у пожилых людей: акцент на воспаление и тренированный иммунитет. Фронт. Иммунол. 8 , 982 (2017).

    PubMed PubMed Central Статья CAS Google Scholar

  • 159.

    Qian, F. et al. Связанное с возрастом повышение TLR5 приводит к усилению воспалительной реакции у пожилых людей. Ячейка старения 11 , 104–110 (2012).

    CAS PubMed Статья Google Scholar

  • 160.

    Metcalf, T. U. et al. Глобальный анализ выявил возрастные изменения врожденных иммунных ответов после стимуляции рецепторов распознавания патогенов. Ячейка старения 14 , 421–432 (2015).

    CAS PubMed PubMed Central Статья Google Scholar

  • 161.

    Hoogeboom, R. et al. Подгруппа мутировавших В-клеток хронического лимфоцитарного лейкоза, которая распознает грибы и реагирует на них. J. Exp. Med. 210 , 59–70 (2013).

    CAS PubMed PubMed Central Статья Google Scholar

  • 162.

    Jurado-Camino, T. et al. Хронический лимфолейкоз: парадигма перекрестной толерантности врожденного иммунитета. J. Immunol. 194 , 719–727 (2015).

    CAS PubMed Статья Google Scholar

  • 163.

    Pauken, K. E. et al. Эпигенетическая стабильность истощенных Т-лимфоцитов ограничивает длительность восстановления энергии за счет блокады PD-1. Наука 354 , 1160–1165 (2016).

    CAS PubMed PubMed Central Статья Google Scholar

  • 164.

    Lee, S.H. et al. TNFα усиливает фенотип, подобный раковым стволовым клеткам, посредством активации Notch-Hes1 в клетках плоскоклеточной карциномы полости рта. Biochem. Биофиз. Res. Commun. 424 , 58–64 (2012).

    CAS PubMed PubMed Central Статья Google Scholar

  • 165.

    Ходж, Д. Р., Херт, Э. М. и Фаррар, В. Л. Роль IL-6 и STAT3 в воспалении и раке. Eur. J. Cancer 41 , 2502–2512 (2005).

    CAS PubMed Статья Google Scholar

  • 166.

    Рабольд, К., Netea, M.G., Adema, G.J. и Netea-Maier, R.T. Клеточный метаболизм опухолевых макрофагов - функциональное воздействие и последствия. FEBS Lett. 591 , 3022–3041 (2017).

    CAS PubMed Статья Google Scholar

  • 167.

    Кубас П., Винсент К. и Коэн Е. Эпигенетическая мутация, ответственная за естественные вариации симметрии цветков. Nature 401 , 157–161 (1999).

    CAS PubMed Статья Google Scholar

  • 168.

    Greer, E. L. et al. Сеть метилирования гистонов регулирует эпигенетическую память между поколениями у C. elegans. Cell Rep. 7 , 113–126 (2014).

    CAS PubMed PubMed Central Статья Google Scholar

  • 169.

    Тейт, А. Т., Андольфатто, П., Демут, Дж. П. и Грэм, А.L. Внутренняя динамика инфекции у мучных жуков, прививаемых из поколения в поколение. Мол. Ecol. 26 , 3794–3807 (2017).

    CAS PubMed PubMed Central Статья Google Scholar

  • 170.

    Авторы не указаны. Заседание Стратегической консультативной группы экспертов по иммунизации, апрель 2014 г. - выводы и рекомендации. Wkly Epidemiol. Рек. . 89 , 221–236 (2014).

    Google Scholar

  • 171.

    Шэнн Ф. Гетерологичные (неспецифические) эффекты вакцин: последствия для политики в странах с высокой смертностью. Пер. R. Soc. Троп. Med. Hyg. 109 , 5–8 (2015).

    CAS PubMed Статья Google Scholar

  • 172.

    Benn, C. S., Fisker, A. B., Whittle, H. C. & Aaby, P. Ревакцинация живыми аттенуированными вакцинами оказывает дополнительное благоприятное неспецифическое воздействие на общую выживаемость: обзор. EBioMedicine 10 , 312–317 (2016).

    PubMed PubMed Central Статья Google Scholar

  • 173.

    Locht, C. & Mielcarek, N. Живые аттенуированные вакцины против коклюша. Эксперт. Rev. Vaccines 13 , 1147–1158 (2014).

    CAS PubMed Статья Google Scholar

  • 174.

    Meyers, P. A. et al.Остеосаркома: добавление мурамилтрипептида к химиотерапии улучшает общую выживаемость - отчет Детской онкологической группы. J. Clin. Онкол. 26 , 633–638 (2008).

    CAS PubMed Статья Google Scholar

  • 175.

    Muramatsu, D. et al. β-глюкан, полученный из Aureobasidium pullulans, эффективен для профилактики гриппа у мышей. PLoS One 7 , e41399 (2012).

    CAS PubMed PubMed Central Статья Google Scholar

  • 176.

    Малдер, У. Дж. М., Очандо, Дж., Йостен, Л. А. Б., Фаяд, З. А. и Нетеа, М. Г. Терапевтическое воздействие на тренированный иммунитет. Nat. Rev. Drug. Discov. 18 , 553–566 (2019).

    CAS PubMed PubMed Central Статья Google Scholar

  • 177.

    Левин, Д.Б. Больница для раненых и искалеченных: Уильям Брэдли Коли, третий главный хирург 1925-1933 гг. HSS J. 4 , 1–9 (2008).

    PubMed Статья Google Scholar

  • 178.

    Coley, W. B. II. Вклад в изучение саркомы. Ann. Surg. 14 , 199–220 (1891).

    CAS PubMed PubMed Central Статья Google Scholar

  • 179.

    Олд, Л. Дж., Кларк, Д. А. и Бенасерраф, Б. Влияние бациллярной инфекции Кальметта-Герена на трансплантированные опухоли у мышей. Nature 184 , 291–292 (1959).

    PubMed Статья Google Scholar

  • 180.

    Ostadrahimi, A. et al. Влияние бета-глюкана на количество лейкоцитов и сывороточные уровни IL-4 и IL-12 у женщин с раком груди, проходящих химиотерапию: рандомизированное двойное слепое плацебо-контролируемое клиническое исследование. Asian Pac. J. Cancer Prev. 15 , 5733–5739 (2014).

    PubMed Статья Google Scholar

  • 181.

    Башир, К. М. И., Чой, Ж.-С. Клинические и физиологические перспективы β-глюканов: прошлое, настоящее и будущее. Внутр. J. Mol. Sci . 18 , 1906 (2017).

    PubMed Central Статья CAS Google Scholar

  • 182.

    Ветвика В., Ваннуччи Л., Сима П. и Рихтер Дж. Бета-глюкан: добавка или лекарство? от лабораторных до клинических испытаний. Молекулы 24 , 1251 (2019).

    PubMed Central Статья CAS Google Scholar

  • 183.

    Лим, В. А. и Джун, К. Х. Принципы конструирования иммунных клеток для лечения. Cancer Cell 168 , 724–740 (2017).

    CAS Google Scholar

  • 184.

    Шарма П. и Эллисон Дж. П. Будущее иммунной контрольной терапии. Наука 348 , 56–61 (2015).

    CAS Статья PubMed Google Scholar

  • 185.

    Routy, B. et al. Микробиота кишечника влияет на противоопухолевый иммунный надзор и общее состояние здоровья. Nat. Преподобный Clin. Онкол. 15 , 382–396 (2018).

    CAS PubMed Статья Google Scholar

  • 186.

    Lameijer, M. et al. Оценка эффективности и безопасности наноиммунотерапии, нацеленной на TRAF6, у атеросклеротических мышей и нечеловеческих приматов. Nat. Биомед. Eng . 2 , 279–292 (2018).

    CAS PubMed PubMed Central Статья Google Scholar

  • 187.

    Netea, M. G., Schlitzer, A., Placek, K., Joosten, L. A. B. & Schultze, J. L. Врожденная и адаптивная иммунная память: эволюционный континуум в реакции хозяина на патогены. Cell Host Microbe 25 , 13–26 (2019).

    CAS PubMed Статья Google Scholar

  • 188.

    Ридкер П. М. и др. Противовоспалительная терапия канакинумабом при атеросклеротическом заболевании. N. Engl. J. Med. 377 , 1119–1131 (2017).

    CAS PubMed Статья Google Scholar

  • 189.

    Domínguez-Andrés, J.и другие. Ингибитор бромодомена I-BET151 подавляет иммунные ответы во время грибкового иммунного взаимодействия. Eur. J. Immunol. 49 , 2044–2050 (2019).

    PubMed PubMed Central Статья CAS Google Scholar

  • 190.

    Alqahtani, A. et al. Бромодомен и ингибиторы экстратерминальных мотивов: обзор доклинических и клинических достижений в терапии рака. Future Sci. OA 5 , FSO372 (2019).

    PubMed PubMed Central Статья CAS Google Scholar

  • Я не солдат, но меня научили убивать

    Купер имел определенное мнение о том, почему мир, по его мнению, погрузился в хаос. Как он писал в своем информационном бюллетене и ежемесячной колонке для журнала Guns & Ammo , равенство было биологической невозможностью, «а свобода достижима только в однородных популяциях, которые очень малораспространены.Он считал, что разнообразие - это слабость, и Африка «была намного лучшим местом как для черных, так и для белых », когда ею правили колониальные державы. Он открыто заявлял о своем отвращении к ЛГБТК и регулярно использовал оскорбления в адрес мусульман и азиатов. Gunsite убрала большую часть явного фанатизма Купера из своей учебной программы, хотя до сих пор демонстрирует видео, в котором он рассказывает о черных африканцах, ограбивших оружейный магазин, о людях, которых он называет «обезьянами».

    Когда Купер основал Gunsite, охота была самой популярной причиной владения огнестрельным оружием, а право ношения скрытого оружия строго контролировалось на большей части территории США.(Ранее запреты на скрытое ношение оружия были введены в эпоху Реконструкции, в основном для того, чтобы иммигранты и ранее порабощенные люди не могли публично носить оружие.) Теперь большинство владельцев оружия говорят, что они мотивированы желанием защитить себя и свои семьи, и благодаря активному лоббированию со стороны NRA почти каждый штат страны либерализовал свою политику скрытого ношения. К 1999 году 2,7 миллиона американцев имели разрешения на скрытое ношение; сегодня, когда уровень насильственной преступности вдвое меньше, чем он был на пике в начале 90-х годов, это составляет около 20 миллионов человек.Если исключить Калифорнию и Нью-Йорк, где действуют очень строгие законы об оружии, почти 10 процентов взрослого населения имеют разрешение на скрытое ношение, и почти две трети американцев считают, что наличие оружия в доме делает его более безопасным местом для проживания. . В тактическом мире зрелище стрельбы полицией невооруженных подозреваемых является аргументом в пользу большего, а не меньшего финансирования полиции; Утверждается, что если бы каждый офицер прошел такую ​​подготовку, которую я получал в Gunsite, они бы сохраняли спокойствие и с меньшей вероятностью открыли бы огонь в панике.

    На следующий день после президентских выборов 2020 года, мой третий день в Gunsite, настроение было подавленным. Судьба президентства все еще была под вопросом, но Fox News назвала Gunsite домом для Джо Байдена. «Добро пожаловать в новый голубой штат Аризона», - мрачно сказал один из моих одноклассников. Он предположил, что для правильного мышления мы могли представить, что целью была Нэнси Пелоси. Кто-то еще пошутил о том, что снимать СМИ незаконно - пока! - а затем, вспомнив о моем присутствии, извинился.

    За обедом я побеседовал с Брайаном Маком, анестезиологом из Санта-Барбары, Калифорния, который на протяжении восьми лет ежегодно ездил в Gunsite со своими коллегами. В 2017 году он пропустил ежегодный визит. В октябре того же года Мак и его жена были на фестивале кантри-музыки под открытым небом в Лас-Вегасе - их первые выходные вдали от детей за более чем десять лет - когда на 32-м этаже отеля Mandalay Bay скрылся боевик, открывший огонь по толпе. «Я слышал поп-поп-поп, и после того, как вы побывали здесь, вы знаете, как звучит выстрел», - сказал мне Мак.Он был убит выстрелом в живот, его жена - в голову; их спасли незнакомцы, в том числе бывший мистер Калифорния. Выстрел не изменил отношения Мака к оружию, он сказал мне: «Для меня оружие ассоциируется с хорошими вещами. Это я и мои друзья, мы стреляем по стальным мишеням ». Однако его жена никогда не обращалась с оружием, пока в ноябре не решила присоединиться к своему мужу в Gunsite. «Моя жена очень сильная, она нервный человек, ей надоедает, что все говорят:« Как вы, ребята, - это ? », - сказал мне Мак.«Но потом она услышала здесь первый выстрел, и я посмотрел, и ее глаза наполнились слезами - она ​​пыталась не плакать. Она просто сказала: «Я хочу поехать». У нее была пощечина от посттравматического стресса. Но она выдержала это нормально. Я не думаю, что она будет большим стрелком. Но она больше этого не боится ».

    Тренированный иммунитет: программа врожденной иммунной памяти в отношении здоровья и болезней

    Тренировка иммунных клеток для запоминания

    Классическая иммунологическая память, осуществляемая Т- и В-лимфоцитами, гарантирует, что мы почувствуем вредное воздействие многих патогенов только один раз.Netea et al. рассматривает, как клетки врожденной иммунной системы, которым не хватает антигенной специфичности, клональности и продолжительности жизни Т-клеток и В-клеток, тоже обладают некоторой способностью запоминать. Это свойство, называемое «обученным иммунитетом», позволяет макрофагам, моноцитам и естественным клеткам-киллерам проявлять повышенную чувствительность при повторной встрече с патогенами. Эпигенетические изменения в значительной степени стимулируют тренированный иммунитет, который живет меньше и менее специфичен, чем классическая память, но, вероятно, все же дает нам преимущество при многих инфекциях.

    Наука , в этом выпуске стр. 10.1126 / science.aaf1098

    Structured Abstract

    ИСТОРИЯ

    Иммунные ответы хозяина классически делятся на врожденные иммунные ответы, которые реагируют быстро и неспецифично при встрече с патогеном, и адаптивные иммунные ответы, которые развиваются медленнее, но специфичны и формируются. укрепить иммунологическую память. Догма о том, что только адаптивный иммунитет может создавать иммунологическую память, недавно была оспорена исследованиями, показавшими, что врожденные иммунные ответы у растений и беспозвоночных (организмов, лишенных адаптивных иммунных ответов) могут повышать устойчивость к повторному заражению.Кроме того, в некоторых моделях вакцинации млекопитающих было показано, что защита от повторного заражения происходит независимо от Т- и В-лимфоцитов. Эти наблюдения привели к гипотезе о том, что врожденный иммунитет может проявлять адаптивные характеристики после заражения патогенами или их продуктами. Эта де-факто иммунологическая память получила название «тренированный иммунитет» или «врожденная иммунная память».

    ДОСТИЖЕНИЯ

    В последние годы новые данные показали, что после инфицирования или вакцинации прототипные клетки врожденного иммунитета (такие как моноциты, макрофаги или естественные клетки-киллеры) демонстрируют долгосрочные изменения в своих функциональных программах.Эти изменения приводят к усилению реакции на вторичную стимуляцию микробными патогенами, увеличению выработки медиаторов воспаления и повышенной способности устранять инфекцию. Механистические исследования показали, что тренированный иммунитет основан на эпигенетическом репрограммировании, которое в широком смысле определяется как устойчивые изменения в программах транскрипции и физиологии клетки, которые не связаны с постоянными генетическими изменениями, такими как мутации и рекомбинация. Модификации гистонов с реконфигурацией хроматина оказались центральным процессом для тренированного иммунитета, но ожидается, что будут задействованы и другие механизмы, такие как метилирование ДНК или модуляция микроРНК и / или длинная некодирующая экспрессия РНК.Это приводит к транскрипционным программам, которые перестраивают внутриклеточные иммунные сигналы клеток врожденного иммунитета, но также вызывают сдвиг клеточного метаболизма от окислительного фосфорилирования к аэробному гликолизу, тем самым увеличивая способность клеток врожденного иммунитета реагировать на стимуляцию. Программы обученного иммунитета превратились в адаптивные состояния, которые повышают приспособленность хозяина (например, защитные эффекты после инфекции или вакцинации или индукция толерантности слизистой оболочки к колонизирующим микроорганизмам).Доказательные экспериментальные исследования подтверждают гипотезу о том, что тренированный иммунитет является одним из основных иммунологических процессов, которые опосредуют неспецифические защитные эффекты против инфекций, вызываемых вакцинами, такими как бацилла Кальметта-Герена или вакцинация от кори. Однако при неправильной активации тренированные программы иммунитета могут стать неадаптивными, как при постсептическом иммунном параличе или аутовоспалительных заболеваниях.

    OUTLOOK

    Обнаружение тренированного иммунитета выявило важное и ранее неизвестное свойство иммунных ответов человека.Этот прогресс открывает двери для будущих исследований по изучению влияния тренированного иммунитета на болезнь, как для заболеваний с нарушенной защитой хозяина, таких как постсептический иммунный паралич или рак, так и для аутовоспалительных заболеваний, при которых происходит несоответствующая активация воспаления. Эти результаты имеют значительный потенциал для помощи в разработке новых терапевтических стратегий, таких как вакцины нового поколения, сочетающие классическую иммунологическую память и тренированный иммунитет, активацию тренированного иммунитета для лечения постсептического иммунного паралича или других состояний иммунодефицита и модуляцию. обострения воспаления при аутовоспалительных заболеваниях.

    Активация врожденного иммунитета инфекциями или вакцинацией приводит к модификациям гистонов и функциональному перепрограммированию клеток (таких как моноциты, макрофаги или NK-клетки), что называется «обученным иммунитетом» или «врожденной иммунной памятью».

    Обученный иммунитет развился, чтобы привести к адаптивным состояниям, которые защищают хозяина во время микробной колонизации или после инфекций. Однако в определенных ситуациях тренированный иммунитет может привести к дезадаптивным состояниям, таким как постсептический иммунный паралич или гипервоспаление.миРНК, микроРНК.

    Abstract

    Общее мнение о том, что только адаптивный иммунитет может строить иммунологическую память, недавно подверглось сомнению. У организмов, лишенных адаптивного иммунитета, а также у млекопитающих врожденная иммунная система может создавать устойчивость к повторному заражению, явление, называемое «тренированный иммунитет» или «врожденная иммунная память». Тренированный иммунитет управляется эпигенетическим перепрограммированием, в широком смысле определяемым как устойчивые изменения в экспрессии генов и физиологии клетки, которые не связаны с постоянными генетическими изменениями, такими как мутации и рекомбинация, которые необходимы для адаптивного иммунитета.Открытие тренированного иммунитета может открыть дверь для новых подходов к вакцинам, новых терапевтических стратегий для лечения состояний иммунодефицита и модуляции усиленного воспаления при аутовоспалительных заболеваниях.

    Даунте Райт и кризис обучения американской полиции

    «Многие из этих плохих случаев являются результатом того, что офицер неправильно воспринимает угрозу», - говорит Сью Рар, бывший шериф округа Кинг, штат Вашингтон, которая сейчас служит советник полицейских реформаторских организаций.Рар разработал метод обучения новобранцев вежливости, сочувствия, объяснения своих действий и сохранения достоинства каждого. Полиция должна быть обучена «проявлять сочувствие, быть опекунами, а не воинами», - говорит Векслер.

    Это может означать добавление новых предметов в учебную программу. Немногие американские офицеры получают хорошее образование об истории полицейской деятельности или роли полиции в демократическом обществе. «Офицер, прошедший одну из европейских программ обучения, с большей вероятностью будет иметь гораздо более широкий взгляд на то, что представляет собой работа, какова ваша роль, каково ваше общество, как вы вписываетесь в него», - говорит Дэвид. Харрис, профессор права Питтсбургского университета.«Эти вещи просто не являются частью того, что происходит в большинстве программ обучения американских полицейских».

    Американские полицейские академии также уделяют мало внимания обучению «мягким навыкам», например, как общаться или использовать эмоциональный интеллект, чтобы ясно видеть ситуацию. «Мы не говорили ни о чем из того, что вы могли бы назвать большими проблемами в полицейской деятельности: гонка и полицейская работа, полицейская работа и чрезмерная сила, что такое хорошая полицейская работа?» - сказал Брукс. (Учебная программа Департамента полиции округа Колумбия была обновлена ​​после обучения Брукса в 2016 году и, по словам представителя полиции, «теперь включает эти области».

    Американские полицейские тоже плохо подготовлены к травмам на работе: они получают всего шесть часов обучения управлению стрессом по сравнению с 25 часами на написание отчетов, согласно исследованию Министерства юстиции США 2016 года.

    И после того, как офицеры закончат полицейские академии, такие недостатки в их обучении трудно восполнить. «Когда человек выходит из дома, приобретает привычки и окультуривается, становится труднее менять направление, - говорит Харрис. «Как вы измените их мировоззрение и способ выполнения той работы, которой они уже занимались?»

    Новых офицеров часто объединяют с офицерами полевой подготовки, но многие из этих офицеров сами выучили неправильные приемы и передают их своим ученикам.Дерек Човен, который был осужден во вторник за убийство, действовал в качестве офицера полевой подготовки, когда убил Джорджа Флойда. Ким Поттер, который кричал: «Электрошокер! Тазер! Электрошокер! » перед тем, как на прошлой неделе смертельно выстрелить в Даунт Райт из пистолета, в то время также выполняла обязанности офицера полевой подготовки.

    Проект Маршалла недавно изучил 10 полицейских управлений больших городов и обнаружил, что в большинстве из них офицеры, столкнувшиеся с обвинениями в агрессивном поведении, могут стать инструкторами; Одно научное исследование показало, что офицеры, чьи инструкторы неоднократно подавали жалобы граждан, чаще обращались с жалобами в первые два года своей работы.

    Лучшее обучение не может решить все проблемы американской полиции. Но поскольку офицеры имеют право применять силу против своих сограждан, они должны, по крайней мере, быть вооружены, чтобы применять ее с умом.

    google-research / bert: код TensorFlow и предварительно обученные модели для BERT

    ***** Новинка 11 марта 2020 г .: меньшие модели BERT *****

    Это выпуск из 24 моделей BERT меньшего размера (только на английском языке, без корпуса, обученных с маскированием WordPiece), упомянутых в документе «Хорошо читающие студенты учатся лучше: о важности предварительного обучения компактных моделей».

    Мы показали, что стандартный рецепт BERT (включая архитектуру модели и цель обучения) эффективен для широкого диапазона размеров моделей, помимо BERT-Base и BERT-Large. Меньшие модели BERT предназначены для сред с ограниченными вычислительными ресурсами. Их можно настроить так же, как и оригинальные модели BERT. Однако они наиболее эффективны в контексте извлечения знаний, когда ярлыки для точной настройки производятся более крупным и точным учителем.

    Наша цель - сделать возможным исследования в учреждениях с меньшими вычислительными ресурсами и побудить сообщество искать направления инноваций, альтернативных увеличению возможностей моделей.

    Вы можете скачать все 24 отсюда или по отдельности из таблицы ниже:

    Обратите внимание, что модель BERT-Base в этот выпуск включена только для полноты; он был повторно обучен в том же режиме, что и исходная модель.

    Вот соответствующие баллы КЛЕЯ на тестовом наборе:

    Модель Оценка CoLA ССТ-2 MRPC СТС-Б QQP МНЛИ-м МНЛИ-мм QNLI (версия 2) RTE WNLI AX
    BERT-Tiny 64.2 0,0 83,2 81,1 / 71,1 74,3 / 73,6 62,2 / 83,4 70,2 70,3 81,5 57,2 62,3 21,0
    BERT-Mini 65,8 0,0 85,9 81,1 / 71,8 75,4 / 73,3 66,4 / 86,2 74,8 74,3 84,1 57,9 62,3 26.1
    BERT-Small 71,2 27,8 89,7 83,4 / 76,2 78,8 / 77,0 68,1 / 87,0 77,6 77,0 86,4 61,8 62,3 28,6
    BERT-средний 73,5 38,0 89,6 86,6 / 81,6 80,4 / 78,4 69,6 / 87,9 80,0 79,1 87.7 62,2 62,3 30,5

    Для каждой задачи мы выбрали лучшие гиперпараметры тонкой настройки из приведенных ниже списков и обучили 4 эпохи:

    • размеры партий: 8, 16, 32, 64, 128
    • темпы обучения: 3e-4, 1e-4, 5e-5, 3e-5

    Если вы используете эти модели, цитируйте следующий документ:

      @article {turc2019,
      title = {Начитанные студенты учатся лучше: о важности предварительного обучения компактных моделей},
      author = {Тюрк, Юлия и Чанг, Мин-Вэй и Ли, Кентон и Тутанова, Кристина},
      journal = {arXiv препринт arXiv: 1908.08962v2},
      год = {2019}
    }
      

    ***** Новинка 31 мая 2019 г .: Модели маскировки всего слова *****

    Это выпуск нескольких новых моделей, являющихся результатом усовершенствования код предварительной обработки.

    В исходном коде предварительной обработки мы случайным образом выбираем токены WordPiece для маска. Например:

    Входной текст: мужчина вскочил, положил корзину на голову phil ## am ## mon Исходный материал в маске: [MASK] man [MASK] вверх, наденьте его [MASK] на голову Phil [MASK] ## mon

    Новый метод называется маскированием всего слова.В этом случае мы всегда маскируем сразу все токенов, соответствующих слову. Общая маскировка ставка остается прежней.

    Ввод целого слова в маске: человек [МАСКА] поднял, положил корзину на голову [МАСКА] [МАСКА] [МАСКА]

    Обучение идентично - мы по-прежнему прогнозируем каждый замаскированный токен WordPiece независимо. Улучшение связано с тем, что исходный прогноз задача была слишком «легкой» для слов, разбитых на несколько частей WordPlay.

    Это можно включить во время генерации данных, передав флаг --do_whole_word_mask = Истина с по create_pretraining_data.py .

    Предварительно обученные модели с маскировкой всего слова приведены ниже по ссылкам. Данные и во всем остальном обучение было идентичным, а модели имеют идентичную структуру и словарный запас к оригинальным моделям. Мы включаем только модели BERT-Large. Когда используешь эти модели, пожалуйста, поясните в документе, что вы используете весь Вариант маскировки слов BERT-Large.

    Модель ОТРЯД 1.1 F1 / EM Multi NLI Точность
    BERT-Large, без корпуса (оригинал) 91,0 / 84,3 86,05
    BERT-Large, без регистра (маскировка всего слова) 92,8 / 86,7 87,07
    BERT-Large, в корпусе (оригинал) 91,5 / 84,8 86,09
    BERT-Large, регистр (маскировка всего слова) 92.9 / 86,7 86,46

    ***** Новое от 7 февраля 2019 г .: модуль TfHub *****

    BERT загружено в TensorFlow Hub. Видеть run_classifier_with_tfhub.py для примера использования модуля TF Hub, или запустите пример в браузере на Колаб.

    ***** Новое 23 ноября 2018 г .: ненормализованная многоязычная модель + тайский + Монгольский *****

    Мы загрузили новую многоязычную модель, которая не выполняет нормализацию , а не . на входе (без нижнего регистра, удаления акцента или нормализации Unicode) и дополнительно включает тайский и монгольский языки.

    Эту версию рекомендуется использовать для разработки многоязычных моделей, особенно на языках с нелатинскими алфавитами.

    Это не требует изменения кода, его можно скачать здесь:

    ***** Новинка 15 ноября 2018 г .: система SOTA SQuAD 2.0 *****

    Мы выпустили изменения кода для воспроизведения нашей системы 83% F1 SQuAD 2.0, которая на данный момент 1-е место в таблице лидеров на 3%. См. Раздел SQuAD 2.0 в ЧИТАЙТЕ подробности.

    ***** Новинка 5 ноября 2018 г .: сторонние версии PyTorch и Chainer BERT доступен *****

    исследователей НЛП из HuggingFace сделали Доступна версия PyTorch BERT который совместим с нашими предварительно обученными контрольными точками и способен воспроизводить наши результаты. Сосуке Кобаяши также сделал Доступна версия BERT для цепочки (Спасибо!) Мы не участвовали в создании или обслуживании PyTorch. реализации, поэтому, пожалуйста, задавайте любые вопросы авторам этого репозиторий.

    ***** Новинка 3 ноября 2018 г .: доступны многоязычные и китайские модели *****

    Мы сделали доступными две новые модели BERT:

    • BERT-Base, многоязычный (Не рекомендуется, используйте Multilingual Cased вместо ) : 102 языка, 12 слоев, 768 скрытых, 12 головок, параметры 110M
    • BERT-Base, китайский : Китайский упрощенный и традиционный, 12 слоев, 768 скрытых, 12 головок, 110M параметры

    Мы используем символьную токенизацию для китайского языка и токенизацию WordPiece для все другие языки.Обе модели должны работать сразу без кода. изменения. Мы обновили реализацию BasicTokenizer в tokenization.py для поддержки токенизации китайских символов, поэтому обновите, если ты его раздвоил. Однако мы не меняли API токенизации.

    Подробнее см. Многоязычный README.

    ***** Конец новой информации *****

    Введение

    BERT или B idirectional E ncoder R Представления от Трансформаторы T - это новый метод предварительной тренировки языковых представлений, который получает самые современные результаты по широкому спектру обработки естественного языка (НЛП) задачи.

    Наша научная статья, в которой подробно описывается BERT и приводятся полные результаты количество задач можно посмотреть здесь: https://arxiv.org/abs/1810.04805.

    Чтобы дать несколько цифр, вот результаты на SQuAD v1.1 ответы на вопросы задача:

    Таблица лидеров SQuAD v1.1 (8 октября 2018 г.) Тест EM Тест F1
    Ансамбль за 1 место - BERT 87,4 93.2
    Ансамбль 2-е место - nlnet 86,0 91,7
    1-е место, одноместная модель - BERT 85,1 91,8
    2-е место, одноместная модель - nlnet 83,5 90,1

    И несколько задач логического вывода на естественном языке:

    Система MultiNLI Вопрос NLI SWAG
    BERT 86.7 91,1 86,3
    OpenAI GPT (предыдущая версия SOTA) 82,2 88,1 75,0

    Плюс много других задач.

    Более того, все эти результаты были получены практически без нейронных проектирование сетевой архитектуры.

    Если вы уже знаете, что такое BERT, и просто хотите начать, вы можете скачать предварительно обученные модели и провести ультрасовременную тонкую настройку всего в нескольких минут.

    Что такое BERT?

    BERT - это метод предварительной подготовки языковых представлений, означающий, что мы обучаем универсальная модель «понимания языка» на большом текстовом корпусе (например, Википедия), а затем использовать эту модель для последующих задач НЛП, которые нам небезразличны. (как ответ на вопрос). BERT превосходит предыдущие методы, потому что это первая неконтролируемая , глубоко двунаправленная система для предварительного обучения НЛП.

    Unsupervised означает, что BERT был обучен с использованием только текстового корпуса, который важно, потому что огромное количество текстовых данных общедоступно в Интернете на многих языках.

    Предварительно обученные представления также могут быть контекстно-свободными или контекстными , и контекстные представления могут быть дополнительно однонаправленными или двунаправленный . Бесконтекстные модели, такие как word2vec или GloVe генерирует одно "слово" встраивание "представления для каждого слова в словаре, так что банк будет иметь Такое же представительство в банковском депозите и берегу реки . Контекстные модели вместо этого генерировать представление каждого слова, основанное на других словах в предложении.

    BERT был основан на недавней работе по предварительному обучению контекстных представлений - включая полу-контролируемое последовательное обучение, Генеративное предварительное обучение, ELMo и ULMFit - но, что очень важно, все эти модели однонаправленные или неглубоко двунаправленный . Это означает, что каждое слово контекстуализируется только с помощью слов слева (или справа). Например, в предложении я сделал банковский депозит однонаправленное представление банка только на основе Я сделал , но не депозит .Некоторые предыдущие работы действительно объединяют представления из отдельных модели с левым и правым контекстом, но только «поверхностным» способом. БЕРТ представляет "банк" в левом и правом контексте - Я сделал ... депозит - начиная с самого низа глубокой нейронной сети, поэтому на глубине двунаправленный .

    BERT использует для этого простой подход: мы маскируем 15% слов во входных данных, прогнать всю последовательность через глубокий двунаправленный Кодировщик трансформатора, а затем только прогнозировать замаскированные слова.Например:

      Вход: мужчина подошел к [MASK1]. он купил [MASK2] молока.
    Ярлыки: [MASK1] = store; [MASK2] = галлон
      

    Чтобы узнать отношения между предложениями, мы также тренируемся на простом задача, которая может быть сгенерирована из любого одноязычного корпуса: Даны два предложения A и B , это B фактическое следующее предложение, которое следует после A , или просто случайное приговор из корпуса?

      Приговор A: мужчина пошел в магазин.Предложение B: он купил галлон молока.
    Ярлык: IsNextSentence
      
      Приговор A: мужчина пошел в магазин.
    Предложение B: пингвины нелетающие.
    Ярлык: NotNextSentence
      

    Затем мы обучаем большую модель (преобразователь от 12 до 24 слоев) на большом корпусе. (Википедия + BookCorpus) в течение длительного времени (1 млн шаги обновления), и это BERT.

    Использование BERT состоит из двух этапов: Предварительная подготовка и точная настройка .

    Предварительное обучение довольно дорого (четыре дня на 4–16 облачных TPU), но это разовая процедура для каждого языка (текущие модели только на английском языке, но многоязычные модели будут выпущены в ближайшее время).Мы выпускаем количество предварительно обученных моделей из статьи, которые были предварительно обучены в Google. Большинству исследователей НЛП никогда не потребуется предварительно обучать собственную модель с нуля.

    Тонкая настройка стоит недорого. Все результаты в статье могут быть реплицируется максимум за 1 час на одном облачном TPU или за несколько часов на графическом процессоре, начиная с той же предварительно обученной модели. SQuAD, например, может быть потренировались примерно за 30 минут на одном Cloud TPU, чтобы получить оценку Dev F1 на уровне 91.0%, что является самой современной единой системой.

    Другим важным аспектом BERT является то, что он может быть адаптирован ко многим типам НЛП решает очень легко. В статье мы демонстрируем современные результаты по уровень предложения (например, SST-2), уровень пары предложений (например, MultiNLI), уровень слова (например, NER) и задачи на уровне диапазона (например, SQuAD) почти без конкретных задач модификации.

    Что было выпущено в этом репозитории?

    Мы выпускаем:

    • Код TensorFlow для архитектуры модели BERT (который в основном является стандартным Трансформаторная архитектура).
    • Предварительно обученные контрольные точки для строчной и регистровой версии BERT-Base и BERT-Large из бумаги.
    • Код TensorFlow для репликации наиболее важных эксперименты по тонкой настройке из статьи, включая SQuAD, MultiNLI и MRPC.

    Весь код в этом репозитории готов к работе с процессором, графическим процессором и облаком. ТПУ.

    Предварительно обученные модели

    Выпускаем из бумаги модели BERT-Base и BERT-Large . Без регистра означает, что текст был переведен в нижний регистр до токенизации WordPiece, Например, Джон Смит становится Джон Смит . Модель без корпуса также исключает любые акцентные маркеры. Обсаженный означает, что истинный регистр и акцентные маркеры сохранились. Как правило, модель без корпуса лучше, если вы не знаете, что это за корпус. информация важна для вашей задачи (например, распознавание именованных сущностей или Теги части речи).

    Все эти модели выпускаются под той же лицензией, что и исходный код (Apache 2.0).

    Для получения информации о многоязычной и китайской модели см. Многоязычный README.

    При использовании модели с корпусом обязательно передайте --do_lower = False для обучения скрипты. (Или передайте do_lower_case = False напрямую FullTokenizer , если вы используя ваш собственный скрипт.)

    Ссылки на модели находятся здесь (щелкните правой кнопкой мыши на имени "Сохранить ссылку как ..."):

    • BERT-Large, без регистра (маскировка всего слова) : 24 слоя, 1024 скрытых, 16 головок, 340M параметры
    • BERT-Large, регистр (маскировка всего слова) : 24 слоя, 1024 скрытых, 16 головок, 340M параметры
    • BERT-Base, без корпуса : 12 слоев, 768 скрытых, 12 головок, параметры 110M
    • BERT-Large, без корпуса : 24 слоя, 1024 скрытых, 16 головок, 340M параметры
    • BERT-Base, корпус : 12 слоев, 768 скрытых, 12 головок, параметры 110M
    • BERT-Large, в корпусе : 24 слоя, 1024 скрытых, 16 головок, 340M параметры
    • BERT-Base, многоязычный корпус (новый, рекомендуется) : 104 языка, 12-слойный, 768-скрытый, 12-головный, 110M параметры
    • BERT-Base, многоязычный без корпуса (оригинальная версия, не рекомендуется) (Не рекомендуется, используйте Multilingual Cased вместо ) : 102 языка, 12 слоев, 768 скрытых, 12 головок, параметры 110M
    • BERT-Base, китайский : Китайский упрощенный и традиционный, 12 слоев, 768 скрытых, 12 головок, 110M параметры

    Каждый.zip-файл содержит три элемента:

    • Контрольная точка TensorFlow ( bert_model.ckpt ), содержащая предварительно обученные веса (на самом деле это 3 файла).
    • Файл словаря ( vocab.txt ) для сопоставления WordPiece с идентификатором слова.
    • Конфигурационный файл ( bert_config.json ), в котором указаны гиперпараметры модель.

    Точная настройка с помощью BERT

    Важно : Все результаты на бумаге были точно настроены на одном облачном TPU, который имеет 64 ГБ оперативной памяти.В настоящее время невозможно воспроизвести большую часть BERT-Large результаты на бумаге с использованием графического процессора с 12 ГБ - 16 ГБ ОЗУ, потому что максимальный размер пакета, который может поместиться в памяти, слишком мал. Мы работаем над добавление кода в этот репозиторий, который позволяет увеличить эффективный размер пакета на GPU. См. Раздел о проблемах нехватки памяти для подробнее.

    Этот код был протестирован с TensorFlow 1.11.0. Он был протестирован с Python2 и Python3 (но более тщательно с Python2, поскольку это то, что используется внутри в Google).

    Примеры тонкой настройки, использующие BERT-Base , должны работать на графическом процессоре. который имеет как минимум 12 ГБ ОЗУ, используя указанные гиперпараметры.

    Тонкая настройка с помощью облачных TPU

    В большинстве приведенных ниже примеров предполагается, что вы будете проводить обучение / оценку на вашем локальном компьютере, используя графический процессор, такой как Titan X или GTX 1080.

    Однако, если у вас есть доступ к Cloud TPU, на котором вы хотите тренироваться, просто добавьте следующие флаги для run_classifier.py или run_squad.py :

      --use_tpu = Истина \
      --tpu_name = $ TPU_NAME
      

    См. Руководство Google Cloud TPU о том, как использовать Cloud TPU. В качестве альтернативы вы можете использовать блокнот Google Colab. «BERT FineTuning с облачными TPU».

    В облачных TPU предварительно обученная модель и выходной каталог должны быть включены Облачное хранилище Google. Например, если у вас есть корзина с именем some_bucket , вы вместо этого можно использовать следующие флаги:

      --output_dir = gs: // some_bucket / my_output_dir /
      

    Распакованные файлы предварительно обученных моделей также можно найти в Google Cloud. Папка для хранения gs: // bert_models / 2018_10_18 .Например:

      экспорт BERT_BASE_DIR = gs: // bert_models / 2018_10_18 / uncased_L-12_H-768_A-12
      

    Задачи классификации предложений (и пар предложений)

    Перед запуском этого примера вы должны загрузить Данные КЛЕЯ, запустив этот сценарий и распаковать в какую-нибудь директорию $ GLUE_DIR . Затем загрузите BERT-Base чекпоинт и распаковать в какую-нибудь директорию $ BERT_BASE_DIR .

    Этот пример кода настраивает BERT-Base на Microsoft Research Paraphrase Корпус (MRPC), который содержит всего 3600 примеров и может точно настраиваться в несколько минут на большинстве графических процессоров.

     экспорт BERT_BASE_DIR = / путь / к / bert / uncased_L-12_H-768_A-12
    экспорт GLUE_DIR = / путь / к / клее
    
    python run_classifier.py \
      --task_name = MRPC \
      --do_train = true \
      --do_eval = истина \
      --data_dir = $ GLUE_DIR / MRPC \
      --vocab_file = $ BERT_BASE_DIR / vocab.txt \
      --bert_config_file = $ BERT_BASE_DIR / bert_config.json \
      --init_checkpoint = $ BERT_BASE_DIR / bert_model.ckpt \
      --max_seq_length = 128 \
      --train_batch_size = 32 \
      --learning_rate = 2e-5 \
      --num_train_epochs = 3.0 \
      --output_dir = / tmp / mrpc_output / 

    Вы должны увидеть следующий результат:

      ***** Результаты оценки *****
      eval_accuracy = 0.845588
      eval_loss = 0,505248
      global_step = 343
      убыток = 0,505248
      

    Это означает, что точность набора Dev составила 84,55%. Маленькие наборы, такие как MRPC, имеют высокая разница в точности набора Dev, даже при запуске с одного и того же предтренировочный пункт пропуска. При повторном запуске несколько раз (обязательно укажите на различный output_dir ), вы должны увидеть результаты от 84% до 88%.

    Несколько других предварительно обученных моделей реализованы в готовом виде в run_classifier.py , поэтому следовать этим примерам несложно. используйте BERT для любой задачи классификации одного предложения или пары предложений.

    Примечание. Вы можете увидеть сообщение Running train на CPU . Это на самом деле просто означает что он работает не на Cloud TPU, а на GPU.

    Прогноз классификатора

    После того, как вы обучили свой классификатор, вы можете использовать его в режиме вывода, используя команда --do_predict = true. У вас должен быть файл с именем test.tsv в входная папка. Вывод будет создан в файле с именем test_results.tsv в папке папки вывода. Каждая строка будет содержать вывод для каждого образца, столбцы - это вероятности классов.

     экспорт BERT_BASE_DIR = / путь / к / bert / uncased_L-12_H-768_A-12
    экспорт GLUE_DIR = / путь / к / клее
    экспорт TRAINED_CLASSIFIER = / путь / к / точному / настроенному / классификатору
    
    python run_classifier.py \
      --task_name = MRPC \
      --do_predict = true \
      --data_dir = $ GLUE_DIR / MRPC \
      --vocab_file = $ BERT_BASE_DIR / vocab.txt \
      --bert_config_file = $ BERT_BASE_DIR / bert_config.json \
      --init_checkpoint = $ TRAINED_CLASSIFIER \
      --max_seq_length = 128 \
      --output_dir = / tmp / mrpc_output / 

    SQuAD 1.1

    Стэнфордский набор данных с ответами на вопросы (SQuAD) - это популярный вопрос, отвечающий на эталонный набор данных.BERT (на момент выпуска) получает самые современные результаты на SQuAD практически без изменений сетевой архитектуры для конкретных задач или увеличение данных. Однако это требует предварительной обработки полусложных данных. и постобработка, чтобы иметь дело с (а) характером переменной длины контекста SQuAD параграфы, и (б) аннотации ответов на уровне персонажей, которые используются для Обучение SQuAD. Эта обработка реализована и задокументирована в run_squad.py .

    Для работы в SQuAD вам сначала необходимо загрузить набор данных.В Сайт SQuAD, похоже, не ссылки на наборы данных v1.1 больше нет, но необходимые файлы можно найти здесь:

    Загрузите их в какой-нибудь каталог $ SQUAD_DIR .

    Современные результаты SQuAD из статьи в настоящее время не могут быть воспроизведены на графическом процессоре 12–16 ГБ из-за ограничений памяти (фактически, даже размер пакета 1 похоже, не подходит для графического процессора 12 ГБ с использованием BERT-Large ). Однако достаточно сильный Модель BERT-Base может быть обучена на графическом процессоре со следующими гиперпараметрами:

     python run_squad.ру \
      --vocab_file = $ BERT_BASE_DIR / vocab.txt \
      --bert_config_file = $ BERT_BASE_DIR / bert_config.json \
      --init_checkpoint = $ BERT_BASE_DIR / bert_model.ckpt \
      --do_train = Верно \
      --train_file = $ SQUAD_DIR / train-v1.1.json \
      --do_predict = Истина \
      --predict_file = $ SQUAD_DIR / dev-v1.1.json \
      --train_batch_size = 12 \
      --learning_rate = 3e-5 \
      --num_train_epochs = 2.0 \
      --max_seq_length = 384 \
      --doc_stride = 128 \
      --output_dir = / tmp / squad_base / 

    Прогнозы набора разработчиков будут сохранены в файл с именем предсказания.json в output_dir :

     python $ SQUAD_DIR / Assessment-v1.1.py $ SQUAD_DIR / dev-v1.1.json ./squad/predictions.json 

    Что должно дать такой результат:

     {"f1": 88.41249612335034, "exact_match": 81.2488174077578} 

    Вы должны увидеть результат, аналогичный 88,5%, указанным в документе для База BERT .

    Если у вас есть доступ к Cloud TPU, вы можете тренироваться с BERT-Large . Вот набор гиперпараметров (немного отличается от бумажного), которые последовательно получить около 90.5% -91,0% Одиночная система F1 обучена только на SQuAD:

     питон run_squad.py \
      --vocab_file = $ BERT_LARGE_DIR / vocab.txt \
      --bert_config_file = $ BERT_LARGE_DIR / bert_config.json \
      --init_checkpoint = $ BERT_LARGE_DIR / bert_model.ckpt \
      --do_train = Верно \
      --train_file = $ SQUAD_DIR / train-v1.1.json \
      --do_predict = Истина \
      --predict_file = $ SQUAD_DIR / dev-v1.1.json \
      --train_batch_size = 24 \
      --learning_rate = 3e-5 \
      --num_train_epochs = 2.0 \
      --max_seq_length = 384 \
      --doc_stride = 128 \
      --output_dir = gs: // some_bucket / squad_large / \
      --use_tpu = Истина \
      --tpu_name = $ TPU_NAME 

    Например, один случайный прогон с этими параметрами дает следующие Dev баллов:

     {"f1": 90.87081895814865, "точное_матч": 84.38978240302744} 

    Если выполнить точную настройку на одну эпоху на TriviaQA перед этим результаты будут будет еще лучше, но вам нужно будет преобразовать TriviaQA в SQuAD json формат.

    SQuAD 2.0

    Эта модель также реализована и задокументирована в run_squad.py .

    Чтобы запустить SQuAD 2.0, вам сначала нужно загрузить набор данных. Необходимость файлы можно найти здесь:

    Загрузите их в какой-нибудь каталог $ SQUAD_DIR .

    On Cloud TPU можно запустить с BERT-Large следующим образом:

     питон run_squad.py \
      --vocab_file = $ BERT_LARGE_DIR / vocab.txt \
      --bert_config_file = $ BERT_LARGE_DIR / bert_config.json \
      --init_checkpoint = $ BERT_LARGE_DIR / bert_model.ckpt \
      --do_train = Верно \
      --train_file = $ SQUAD_DIR / train-v2.0.json \
      --do_predict = Истина \
      --predict_file = $ SQUAD_DIR / dev-v2.0.json \
      --train_batch_size = 24 \
      --learning_rate = 3e-5 \
      --num_train_epochs = 2.0 \
      --max_seq_length = 384 \
      --doc_stride = 128 \
      --output_dir = gs: // some_bucket / squad_large / \
      --use_tpu = Истина \
      --tpu_name = $ TPU_NAME \
      --version_2_with_negative = Правда 

    Мы предполагаем, что вы скопировали все из выходного каталога в локальный каталог называется./отряд/. Первоначальные прогнозы набора разработчиков будут на ./squad/predictions.json и различия между оценкой отсутствия ответа ("") и лучший ненулевой ответ на каждый вопрос будет в файле ./squad/null_odds.json

    Запустите этот сценарий, чтобы настроить порог для прогнозирования нулевых и ненулевых ответов:

    Python $ SQUAD_DIR / оценивать-v2.0.py $ SQUAD_DIR / dev-v2.0.json ./squad/predictions.json --na-prob-file ./squad/null_odds.json

    Предположим, что сценарий выводит THRESH "best_f1_thresh".(Типичные значения находятся между -1,0 и -5,0). Теперь вы можете повторно запустить модель для создания прогнозов с помощью производный порог или, в качестве альтернативы, вы можете извлечь соответствующие ответы из ./squad/nbest_predictions.json.

     питон run_squad.py \
      --vocab_file = $ BERT_LARGE_DIR / vocab.txt \
      --bert_config_file = $ BERT_LARGE_DIR / bert_config.json \
      --init_checkpoint = $ BERT_LARGE_DIR / bert_model.ckpt \
      --do_train = Ложь \
      --train_file = $ SQUAD_DIR / train-v2.0.json \
      --do_predict = Истина \
      --predict_file = $ SQUAD_DIR / dev-v2.0.json \
      --train_batch_size = 24 \
      --learning_rate = 3e-5 \
      --num_train_epochs = 2.0 \
      --max_seq_length = 384 \
      --doc_stride = 128 \
      --output_dir = gs: // some_bucket / squad_large / \
      --use_tpu = Истина \
      --tpu_name = $ TPU_NAME \
      --version_2_with_negative = Истина \
      --null_score_diff_threshold = ПОРОГ 
    $

    Проблемы с нехваткой памяти

    Все эксперименты в этой статье были настроены на Cloud TPU, который имеет 64 ГБ ОЗУ устройства. Следовательно, при использовании графического процессора с 12–16 ГБ ОЗУ вы, вероятно, чтобы столкнуться с проблемами нехватки памяти, если вы используете те же описанные гиперпараметры в газете.

    Факторы, влияющие на использование памяти:

    • max_seq_length : Выпущенные модели были обучены с длинами последовательностей до 512, но вы можете настроить более короткую максимальную длину последовательности для экономии существенная память. Это контролируется флагом max_seq_length в нашем пример кода.

    • train_batch_size : Использование памяти также прямо пропорционально размер партии.

    • Тип модели, BERT-Base против BERT-Large : модель BERT-Large требует значительно больше памяти, чем BERT-Base .

    • Оптимизатор : Оптимизатором по умолчанию для BERT является Адам, что требует много дополнительной памяти для хранения векторов m и v . Переход к большему объему памяти эффективный оптимизатор может уменьшить использование памяти, но также может повлиять на полученные результаты.Мы не экспериментировали с другими оптимизаторами для тонкой настройки.

    Используя стандартные обучающие скрипты ( run_classifier.py и run_squad.py ), мы проверил максимальный размер пакета на одном графическом процессоре Titan X (12 ГБ ОЗУ) с TensorFlow 1.11.0:

    Система Длина последовательности Макс.размер партии
    База BERT 64 64
    ... 128 32
    ... 256 16
    ... 320 14
    ... 384 12
    ... 512 6
    BERT-Large 64 12
    ... 128 6
    ... 256 2
    ... 320 1
    ... 384 0
    ... 512 0

    К сожалению, эти максимальные размеры партии для BERT-Large настолько малы, что фактически повредит точности модели, независимо от используемой скорости обучения. Мы работают над добавлением кода в этот репозиторий, который позволит значительно увеличить эффективные размеры пакетов, которые будут использоваться на графическом процессоре. Код будет основан на одном (или оба) следующих методов:

    • Накопление градиента : образцы в минипакете обычно не зависит от вычисления градиента (исключая пакетный нормализация, которая здесь не используется).Это означает, что градиенты перед выполнением взвешивания можно собрать несколько мини-бочек меньшего размера update, и это будет точно эквивалентно одному более крупному обновлению.

    • Контрольная точка градиента : Основное использование памяти GPU / TPU во время обучения DNN - это кэширование промежуточные активации в прямом проходе, необходимые для эффективное вычисление при обратном проходе. Сделки "Градиентная контрольная точка" память для вычисления времени путем повторного вычисления активаций в интеллектуальном способ.

    Однако в текущем выпуске это не реализовано.

    Использование BERT для извлечения фиксированных векторов признаков (например, ELMo)

    В некоторых случаях вместо точной настройки всей предварительно обученной модели сквозной, может быть полезно получить предварительно обученных контекстных вложения , которые являются фиксированными контекстными представлениями каждого входного токена генерируется из скрытых слоев предварительно обученной модели. Это также должно уменьшить большинство проблем, связанных с нехваткой памяти.

    В качестве примера мы включаем сценарий extract_features.py , который можно использовать как это:

     # Предложение A и предложение B разделяются знаком ||| разделитель для предложения
    # парные задачи, такие как ответы на вопросы и следствие.
    # Для ввода с одним предложением помещайте по одному предложению в строку и НЕ используйте
    # разделитель.
    echo 'Кем был Джим Хенсон? ||| Джим Хенсон был кукловодом '> /tmp/input.txt
    
    python extract_features.py \
      --input_file = / tmp / input.txt \
      --output_file = / tmp / output.jsonl \
      --vocab_file = $ BERT_BASE_DIR / vocab.txt \
      --bert_config_file = $ BERT_BASE_DIR / bert_config.json \
      --init_checkpoint = $ BERT_BASE_DIR / bert_model.ckpt \
      --layers = -1, -2, -3, -4 \
      --max_seq_length = 128 \
      --batch_size = 8 

    Это создаст файл JSON (по одной строке на строку ввода), содержащий BERT активаций от каждого слоя Трансформатора, указанного в слоях (-1 - последний скрытый слой Трансформера и др.)

    Обратите внимание, что этот сценарий будет создавать очень большие выходные файлы (по умолчанию около 15 КБ на каждый входной токен).

    Если вам нужно сохранить соответствие между исходным и размеченным словами (для проектирование обучающих этикеток), см. раздел Токенизация ниже.

    Примечание: Вы можете увидеть сообщение типа Не удалось найти обученную модель в model_dir: / tmp / tmpuB5g5c, выполняется инициализация для прогнозирования. Это сообщение ожидаемо, оно просто означает, что мы используем init_from_checkpoint () API, а не сохраненная модель API. Если вы не укажете контрольную точку или укажете недействительный checkpoint, этот скрипт будет жаловаться.

    Токенизация

    Для задач уровня предложения (или задач пары предложений) токенизация очень проста. Просто следуйте примеру кода в run_classifier.py и extract_features.py . Основная процедура для задач на уровне предложения:

    1. Создать экземпляр tokenizer = tokenization.FullTokenizer

    2. Разметьте необработанный текст с помощью tokens = tokenizer.tokenize (raw_text) .

    3. Обрезать до максимальной длины последовательности.(Вы можете использовать до 512, но вы вероятно, захотите использовать короче, если возможно, из соображений памяти и скорости.)

    4. Добавьте токены [CLS] и [SEP] в нужное место.

    Задачи уровня слова и диапазона (например, SQuAD и NER) более сложны, поскольку вам необходимо поддерживать выравнивание между входным и выходным текстом, чтобы вы можете проецировать свои обучающие этикетки. SQuAD - особенно сложный пример потому что метки ввода состоят из символов на основе , а абзацы SQuAD часто больше, чем максимальная длина последовательности.См. Код в run_squad.py , чтобы показать как мы с этим справляемся.

    Прежде чем мы опишем общий рецепт обработки задач на уровне слов, это важно понимать, что именно делает наш токенизатор. Он имеет три основных шаги:

    1. Нормализация текста : преобразовать все символы пробелов в пробелы и (для модели без корпуса ) строчные буквы вводятся и удаляются маркеры акцента. Например, John Johanson's, → john johanson's, .

    2. Разделение знаков препинания : разделение всех знаков пунктуации с обеих сторон (т.е. добавьте пробелы вокруг всех знаков препинания). Пунктуация символы определяются как (a) все, что имеет класс Unicode P * , (b) любые небуквенный / числовой / пробельный символ ASCII (например, такие символы, как $ , которые являются технически не пунктуация). Например, john johanson's, → john johanson's,

    3. Токенизация WordPiece : применить разметку пробелов к выходным данным описанную выше процедуру и примените WordPiece токенизация к каждому токену отдельно.(Наша реализация напрямую основана на на одном из tensor2tensor , который связан). Например, john johanson 's, → john johan ## son' s,

    Преимущество данной схемы в том, что она «совместима» с большинством существующих Английские токенизаторы. Например, представьте, что у вас есть теги для части речи задача, которая выглядит так:

      Сырьё: дом Джона Йохансона.
    Ярлыки: NNP NNP POS NN
      

    Токенизированный вывод будет выглядеть так:

      жетоны: дом джона джохана ## сын
      

    Важно отметить, что это будет тот же результат, что и если бы исходный текст был домом Джона Йохансона (без пробела перед ).

    Если у вас есть предварительно токенизированное представление с аннотациями на уровне слов, вы можете просто токенизируйте каждое входное слово независимо и детерминированно поддерживайте выравнивание оригинала и токенизации:

     ### Ввод
    orig_tokens = ["Джон", "Йохансон", "s", "дом"]
    label = ["NNP", "NNP", "POS", "NN"]
    
    ### Выход
    bert_tokens = []
    
    # Карта токенов будет отображением int -> int между индексом `orig_tokens` и
    # индекс `bert_tokens`.
    orig_to_tok_map = []
    
    tokenizer = токенизация.FullTokenizer (
        Vocab_file = Vocab_file, do_lower_case = True)
    
    bert_tokens.append ("[CLS]")
    для orig_token в orig_tokens:
      orig_to_tok_map.append (len (bert_tokens))
      bert_tokens.extend (tokenizer.tokenize (orig_token))
    bert_tokens.append ("[SEP]")
    
    # bert_tokens == ["[CLS]", "john", "johan", "## son", "'", "s", "house", "[SEP]"]
    # orig_to_tok_map == [1, 2, 4, 6] 

    Теперь orig_to_tok_map можно использовать для проецирования меток на токенизированные представление.

    Существуют распространенные английские схемы токенизации, которые вызывают небольшое несоответствие между тем, как BERT был предварительно обучен.Например, если ваша входная токенизация разделяется От сокращений, таких как , нет , это вызовет несоответствие. Если есть возможность сделайте это, вы должны предварительно обработать свои данные, чтобы преобразовать их обратно в необработанные текст, но если это невозможно, это несоответствие, скорее всего, не имеет большого значения.

    Предварительная подготовка с BERT

    Мы выпускаем код для "замаскированного LM" и "предсказания следующего предложения" на произвольный текстовый корпус. Обратите внимание, что это , а не - точный код, который использовался для документ (исходный код был написан на C ++ и имел некоторые дополнительные сложность), но этот код действительно генерирует данные до обучения, как описано в бумага.

    Вот как запустить генерацию данных. Входные данные - это простой текстовый файл с одним предложение в строке. (Важно, чтобы это были настоящие предложения для следующего предсказание предложения "задача). Документы разделяются пустыми строками. Вывод представляет собой набор из tf.train. Пример s сериализован в формат файла TFRecord .

    Вы можете выполнить сегментацию предложений с помощью стандартного набора инструментов НЛП, например СПАСИЙ. Скрипт create_pretraining_data.py будет объединять сегменты, пока они не достигнут максимальной длины последовательности, чтобы минимизировать вычислительные потери из-за заполнения (подробнее см. сценарий).Однако вы может захотеть намеренно добавить небольшое количество шума к вашим входным данным (например, случайное усечение 2% входных сегментов), чтобы сделать его более устойчивым к несущественным ввод во время точной настройки.

    Этот сценарий сохраняет все примеры для всего входного файла в памяти, поэтому для больших файлов данных вы должны разделить входной файл и вызвать скрипт много раз. (Вы можете передать глобус файла в run_pretraining.py , например, tf_examples.tf_record * .)

    max_predictions_per_seq - максимальное количество маскированных предсказаний LM на последовательность.Вы должны установить это около max_seq_length * masked_lm_prob ( скрипт не делает этого автоматически, потому что необходимо передать точное значение к обоим скриптам).

     Python create_pretraining_data.py \
      --input_file =. / sample_text.txt \
      --output_file = / tmp / tf_examples.tfrecord \
      --vocab_file = $ BERT_BASE_DIR / vocab.txt \
      --do_lower_case = Истина \
      --max_seq_length = 128 \
      --max_predictions_per_seq = 20 \
      --masked_lm_prob = 0.15 \
      --random_seed = 12345 \
      --dupe_factor = 5 

    Вот как провести предварительную тренировку.Не включайте init_checkpoint , если вы предварительное обучение с нуля. Конфигурация модели (включая размер словаря) указанный в bert_config_file . Этот демонстрационный код выполняет предварительную подготовку только для небольшого количество шагов (20), но на практике вы, вероятно, захотите установить num_train_steps От до 10000 шагов и более. max_seq_length и max_predictions_per_seq Параметры , переданные в run_pretraining.py должны быть то же, что и create_pretraining_data.py .

     питон run_pretraining.py \
      --input_file = / tmp / tf_examples.tfrecord \
      --output_dir = / tmp / pretraining_output \
      --do_train = Верно \
      --do_eval = Истина \
      --bert_config_file = $ BERT_BASE_DIR / bert_config.json \
      --init_checkpoint = $ BERT_BASE_DIR / bert_model.ckpt \
      --train_batch_size = 32 \
      --max_seq_length = 128 \
      --max_predictions_per_seq = 20 \
      --num_train_steps = 20 \
      --num_warmup_steps = 10 \
      --learning_rate = 2e-5 

    Это даст следующий результат:

      ***** Результаты оценки *****
      global_step = 20
      потеря = 0.0979674
      masked_lm_accuracy = 0.985479
      masked_lm_loss = 0,0979328
      next_sentence_accuracy = 1.0
      next_sentence_loss = 3.45724e-05
      

    Обратите внимание, что, поскольку наш файл sample_text.txt очень мал, этот пример обучения переоборудует эти данные всего за несколько шагов и даст нереально высокие числа точности.

    Предтренировочные советы и предостережения

    • Если вы используете свой словарь, не забудьте изменить vocab_size в bert_config.json . Если вы используете больший словарный запас, не меняя этого, вы, вероятно, получите NaN при обучении на GPU или TPU из-за отсутствия флажка доступ за границу.
    • Если для вашей задачи доступен большой корпус для конкретной предметной области (например, "фильм обзоры "или" научные статьи "), вероятно, будет полезно запустить дополнительные шаги предтренинга на вашем корпусе, начиная с BERT пропускной пункт.
    • Скорость обучения, которую мы использовали в статье, составляла 1e-4. Однако, если вы делаете дополнительные шаги предварительной подготовки, начиная с существующей контрольной точки BERT, вам следует использовать меньшую скорость обучения (например,г., 2д-5).
    • Текущие модели BERT только на английском языке, но мы планируем выпустить многоязычная модель, которая была предварительно обучена многим языкам в ближайшее время (надеюсь, до конца ноября 2018 г.).
    • Более длинные последовательности непропорционально дороги, потому что внимание квадратичный к длине последовательности. Другими словами, пакет из 64 последовательностей длина 512 намного дороже, чем пакет из 256 последовательностей длина 128. Полносвязная / сверточная стоимость такая же, но Стоимость внимания намного больше для последовательностей длиной 512.Поэтому один Хороший рецепт - это предварительно обучить, скажем,

      шагов с длиной последовательности 128, а затем на 10 000 дополнительных шагов с длиной последовательности 512. очень длинные последовательности в основном нужны для изучения позиционных вложений, которые можно выучить довольно быстро. Обратите внимание, что для этого требуется создать data дважды с разными значениями

      max_seq_length .
    • Если вы готовитесь к обучению с нуля, будьте готовы к тому, что предварительное обучение будет вычислительно дорого, особенно на графических процессорах.Если вы проходите предварительную тренировку с царапины, наш рекомендуемый рецепт - предварительно обучить BERT-Base на одном вытесняемый Cloud TPU v2, который занимает около 2 недель и стоит около 500 долларов США (исходя из цен в Октябрь 2018 г.). Вам нужно будет уменьшить размер партии, когда только обучение на одном Cloud TPU по сравнению с тем, что использовалось в статье. это рекомендуется использовать самый большой размер пакета, который умещается в памяти TPU.

    Данные предварительного обучения

    Мы не сможем выпустить предварительно обработанные наборы данных, используемые в статье.Для Википедии рекомендуется предварительная обработка для загрузки последняя свалка, извлеките текст с помощью WikiExtractor.py , а затем примените любую необходимую очистку, чтобы преобразовать его в обычный текст.

    К сожалению, исследователи, собравшие BookCorpus больше не доступен для общедоступная загрузка. В Набор данных Project Guttenberg несколько меньшее (200 млн слов) собрание старых книг, которые являются общедоступными. домен.

    Common Crawl - еще одна очень большая коллекция текста, но вам, вероятно, придется провести существенную предварительную обработку и очистку, чтобы извлеките полезный корпус для предварительного обучения BERT.

    Изучение нового словаря WordPiece

    Этот репозиторий не включает код для изучения нового словаря WordPiece. Причина в том, что код, использованный в статье, был реализован на C ++ с зависимости от внутренних библиотек Google. Для английского это почти всегда Лучше просто начать с нашего словаря и предварительно обученных моделей. Для учебы словари других языков, есть несколько вариантов с открытым исходным кодом имеется в наличии. Однако имейте в виду, что они несовместимы с нашими токенизация.py библиотека:

    Использование BERT в Colab

    Если вы хотите использовать BERT с Colab, вы можете начать работу с ноутбуком «BERT FineTuning с облачными TPU». На момент написания этой статьи (31 октября 2018 г.) пользователи Colab могли получить доступ к Cloud TPU совершенно бесплатно. Примечание: по одному на пользователя, доступность ограничена, требуется учетная запись Google Cloud Platform с хранилищем (хотя хранилище может быть приобретены с бесплатным кредитом для регистрации в GCP), и эта возможность может не больше не будет доступен в будущем.Нажмите на только что связанный BERT Colab для дополнительной информации.

    FAQ

    Совместим ли этот код с Cloud TPU? А как насчет графических процессоров?

    Да, весь код в этом репозитории готов к работе с процессором, графическим процессором и Облачный ТПУ. Однако обучение на GPU осуществляется только на одном GPU.

    Я получаю ошибки нехватки памяти, что не так?

    Дополнительные сведения см. В разделе о проблемах нехватки памяти. Информация.

    Доступна ли версия PyTorch?

    Официальной реализации PyTorch не существует.Однако исследователи НЛП из Обнимая лицо сделало Доступна версия PyTorch BERT который совместим с нашими предварительно обученными контрольными точками и способен воспроизводить наши результаты. Мы не участвовали в создании или обслуживании PyTorch. реализации, поэтому, пожалуйста, задавайте любые вопросы авторам этого репозиторий.

    Есть ли версия Chainer?

    Официальной реализации Chainer нет. Однако Сосуке Кобаяши сделал Доступна версия BERT для цепочки который совместим с нашими предварительно обученными контрольными точками и способен воспроизводить наши результаты.Мы не участвовали в создании или обслуживании Chainer реализации, поэтому, пожалуйста, задавайте любые вопросы авторам этого репозиторий.

    Будут ли выпущены модели на других языках?

    Да, в ближайшем будущем мы планируем выпустить многоязычную модель BERT. Мы не можем обещать, какие именно языки будут включены, но, скорее всего, быть единой моделью, которая включает самых языков, которые имеют Википедия значительного размера.

    Будут ли выпущены модели крупнее
    BERT-Large ?

    До сих пор мы не пытались обучить ничего большего, чем BERT-Large .это возможно, мы выпустим более крупные модели, если сможем получить значительную улучшения.

    По какой лицензии выпущена эта библиотека?

    Все модели с кодом и выпускаются под лицензией Apache 2.0. Увидеть ЛИЦЕНЗИЯ Файл для получения дополнительной информации.

    Как мне процитировать BERT?

    А пока процитируйте статью Arxiv:

      @article {devlin2018bert,
      title = {BERT: Предварительная подготовка глубоких двунаправленных преобразователей для понимания языка},
      author = {Девлин, Джейкоб и Чанг, Мин-Вэй и Ли, Кентон и Тутанова, Кристина},
      журнал = {arXiv препринт arXiv: 1810.04805},
      год = {2018}
    }
      

    Если мы отправим статью на конференцию или в журнал, мы обновим BibTeX.

    Заявление об ограничении ответственности

    Это не официальный продукт Google.

    Контактная информация

    Если вам нужна помощь или проблемы с использованием BERT, отправьте сообщение о проблеме на GitHub.

    Для личного общения, связанного с BERT, обращайтесь к Якобу Девлину. ( [email protected] ), Мин-Вэй Чанг ( [email protected] ) или Кентон Ли ( kentonl @ google.com ).

    .

    Комментировать

    Ваш адрес email не будет опубликован. Обязательные поля помечены *