Да что я все о каких-то абстрактных программистах рассказываю. Давайте честно: unsafe publishing я регулярно обнаруживаю в своем собственном коде, и если бы только старом... Так нет — это, наверное, единственная ошибка, которую я продолжаю регулярно, раз за разом совершать при написании многопоточного кода.
Для такой распространенности есть две большие причины. Во-первых, публикация ссылки — это обманчиво простая операция. Не, ну что может быть проще, чем просто присвоить ссылку на объект какому-то полю, а? Очень сложно постоянно держать в памяти, что если этим присвоением ты делаешь объект доступным другому потоку — то вокруг сразу начинают виться драконы (да, да, и те самые тоже), и простая операция моментально становится очень непростой с точки зрения JMM.
Это первая причина. А вторая состоит в том, что такого рода нарушения JMM очень редко когда становятся причиной реальных багов. Т.е. программист очень редко получает прямую недусмысленную обратную связь от реального мира вида "написал херню — получил регулярно возникающий но сложный в отладке гейзенбаг". Обычно обратная связь приходит лишь в виде
Чуть подробнее...
(Не)Безопасная публикация
//есть у нас такой класс public class T { public int field1; public T( final int field1 ){ this.field1 = field1; } } //...где-то в дебрях кода... public T sharedRef; //Thread 1 sharedRef = new T( 10 ); //а почему бы и не 10? 42 сегодня взяла отгул //Thread 2 System.out.println( "sharedRef.field1 = " + sharedRef.field1 );
Какие варианты вывода мы здесь можем наблюдать в соответствии с JMM?
Подразумеваемый вариант — все будет хорошо, ожидаемо выведется "10". Оставим эту скукотищу для стариков и женщин. Мы молоды духом, и готовы к приключениям — нам пожалуйста чтобы все ломалось, разрушалсь, взрывалось и горело, и чтобы еще секса побольше...
Ок, у меня есть специально для вас сценарий повеселее:
NullPointerException
. Сценарий здесь тоже довольно очевиден — поток №2 может прочитать значение sharedRef
до того, как поток №1 туда запишет что-то. В таком случае поток №2 увидит значение по-умолчанию, null. Мы такого варианта не хотим, поэтому делаем так:
//Thread 2 if( sharedRef != null ){ System.out.println("sharedRef.field1 = " + sharedRef.field1 ); } else { //... }
Увы, но здесь уже начинаются чудеса. А именно — мы все еще можем увидеть NPE в этом коде! Почему? Да потому что второе чтение
sharedRef
может вернуть совсем не то значение, что первое. В потоке №1 у нас есть две записи в sharedRef
: первая, неявная — запись значения по-умолчанию (null). Вторая, явная — запись ссылки на созданный объект. С точки зрения потока №2 эти записи никак не упорядочены (==нет ребер hb, обязующих его видеть записи именно в "нужном" порядке), и он вполне может увидеть сначала запись sharedRef=new T()
, и только потом sharedRef=null
. Disclaimer: Я не уверен на 100% действительно ли JMM допускает такие перестановки. Некоторые уважаемые люди с этим не согласны, а процедура определения возможных трасс для кода с гонками в JMM исключительно
Ок, это легко вылечить:
//Thread 2 final T localRef = sharedRef; if( localRef != null ){ System.out.println("sharedRef.field1 = " + localRef.field1 ); } else { //... }
мы прикрыли свою задницу от NPE, и теперь уже можем сосредоточиться на выводимых значениях. А значений, увы, мы можем увидеть больше одного. Мы можем увидеть в выводе
sharefRed.field1 = 10
— как и ожидалось. Неожиданным может быть то, что мы можем видеть и вывод sharefRed.field1 = 0
. Причина все та же. Короткая строчка sharedRef = new T(10)
на самом деле это целый ряд операций: (выделение памяти, заполнение полей значениями по-умолчанию, выполнение конструктора, запись ссылки в sharedRef
). То, что в коде потока 1 они идут именно в таком порядке не означает, что поток 2 их увидит так же. Он совершенно спокойно может увидеть сначала присвоение ссылки на "пустой" объект с дефолтными значениями полей (увидеть ссылку до присвоения полям начальных значений он не может — это JMM явно запрещает). Более того, если бы в T было больше одного поля (field1, field2, field3...
) мы могли бы увидеть в потоке 2 любую комбинацию из инициализированных/неинициализированных полей. Эти вот два примера — это и есть суть того, что называется небезопасной публикацией, или, неформально, публикацией "через data race" (где здесь гонка — надеюсь, очевидно).
Смотрите, какая штука: в рамках каждого отдельного потока все инструкции упорядочены по happens-before (порядок HB согласован с т.н. program order — порядком инструкций в коде программы). И когда мы в потоке 2 читаем значение, записанное потоком 1 в
sharedRef
в строчке 14 — кажется очевидным, что раз мы его прочитали, значит эта запись произошла до нашего чтения! То есть интуитивное восприятие последовательности событий подсказывает, что сам факт чтения создает нам ребро HB — которое как раз и необходимо, чтобы весь код стал корректно синхронизированным.И вот эта-то трактовка, кажущаяся настолько интуитивной-интуитивной, что даже в доказательстве не нуждается — она-то как раз и совершенно не верна. Фактический порядок исполнения инструкций в конкретном запуске программы — это совсем другое, нежели формальный порядок happens-before, верный для любого запуска этой программы на любом железе и под любой JVM. Это очень важный момент: если вы в ходе исполнения программы зафиксировали, что какое-то событие А произошло до события Б — это вовсе не значит, что можно утверждать, что A hb B.
Есть одно важное исключение — семантика final полей. Если бы поле
field1
было бы финальным — то как раз сам факт чтения ненулевого значения sharedRef
действительно порождал бы HB. Но это особое ребро HB, некоммутативное с обычными — подробнее я уже писал здесь.Еще одна интересная точка зрения на эту ситуацию: все, работающие с многопоточностью уже привыкли к мысли, что небезопасное (без специальных усилий по синхронизации) использование объекта из нескольких объектов может ломать предоставляемую методами объекта абстракцию атомарных изменений состояния объекта. Так вот, небезопасная публикация объекта так же ломает предоставляемую конструктором абстракцию атомарной инициализации объекта.
Где-то я эту хрень уже видел...
Ну конечно. Unsafe publishing — это основа того, почему не работает double-checking locking:private static DCLSingleton singleton = null; public static DCLSingleton getInstance(){ if( singleton == null ){ synchronized( DCLSingleton.class ){ if( singleton == null ){ singleton = new DCLSingleton(); } } } return singleton; }
вот если какой-то поток видит
singleton != null
до захвата монитора — то он может видеть эту ссылку через data race. Как следствие — ссылка-то будет не нулевая, а вот содержимое может быть каким угодно. Сюда же относится
SettableFuture
из этого поста — вот этот вариант: public class SettableFuture<V> implements Future<V> { private V slot; public V get() throws InterruptedException, ExecutionException { synchronized( this ) { while ( slot == null ) { wait(); } } return slot; } public void set( final V value ) { slot = value; synchronized( this ) { notifyAll(); } } }
Опасность небезопасной публикации в том, что она заметно усложняет создание потокобезопасного объекта. В самом деле, если нам нужен объект, корректно работающий в многопоточном окружении, и нас пока не заботит производительность — то мы можем просто защитить все методы объекта монитором — и спать спокойно?
Ан нет, не можем. Потому что если ссылка на этот объект будет опубликована небезопасно — методы объекта вызванные из не-инициализировавших потоков могут увидеть частично завершенную инициализацию.
Пуленепробиваемо потокобезопасный объект в яве можно создать лишь двумя способами. Первый, и самый лучший — делать его immutable. Для объектов с final полями при условии корректной инициализации
Второй, довольно некрасивый — защищать монитором все методы и еще и все конструкторы. Эта тема некоторое время муссировалась в cuncurrency-interests, и в итоге все Пророки согласились, что объект, у которого все поля закрыты, доступ к ним только через методы, а все методы и конструкторы защищены монитором — будет корректно работать, как его не передавай.
Проблема с этим, вторым, методом — в том, что о нем почти никто не знает. Существуют тонны примитивно-потокобезопасных объектов, со всеми методами
synchronized
, но много ли вы видели объектов с защищенным конструктором? Более того, в ранних версиях одной из священных книг (чуть ли не "Философии джавы") было даже указано, что синхронизировать конструктор нет смысла, и что это явная ошибка. Это было до ревизии модели памяти в 1.5, но кто заметил? Даже синтаксический сахар synchronized
как аттрибут метода на конструктор не распространяется...Представьте, сколько сейчас по разным библиотекам разбросано классов, которые их авторы предполагали потокобезопасными — хотя они таковыми не являются? Тут и сон с аппетитом потерять недолго.
Почему же это не тревожит широкие народные массы?
По легенде, в одном из советских НИИ годов 60-х висел плакат с летящим шмелем, и надписью: "Большая масса тела шмеля вкупе с малой несущей поверхностью его крыльев не позволяет шмелю летать. Но шмель не знает об этом, и летает только поэтому"Ну, во-первых, потому что во многих православных паттернах работы с многопоточностью безопасность публикации обеспечивается их авторами. И работает, даже если использующий эти паттерны программист вообще не задумывается о безопасной публикации. Например, многие ли задумываются о том, что передавая в
Executor Runnable
со ссылкой на какие-то данные, которые нужно обработать, мы тем самым публикуем ссылку на эти данные для потоков внутри Executor
-а? Между тем это именно публикация ссылки, и она безопасна — потому что об этом позаботились разработчики Executor
-а. А вот вторая причина интереснее и скандальнее. Во всем виноват Интел и его монополия :)
Дело в том, что JMM разрабатывалась, как и многое в мире джавы, так, чтобы оставить максимум свободы для потенциальных оптимизаций как разработчикам JVM, так и железу. Но, разумеется, ни те, ни другие не используют всех оставленных им возможностей — что могут, что востребовано — то и используется. (Это нормальная ситуация для любой сложной и долгоживущей системы: избыточность как плата за невозможность точного предвидения будущего. Системы без избыточности как правило нежизнеспособны в долгосрочной перспективе).
"Write once — run everywhere" — красивый, но весьма условный слоган. Везде — это где именно? Вот лично я только однажды в жизни запускал ява-код на не-x86 архитектуре — когда игрался с J2ME. А если ограничиться SE/EE — кто запускал свой код не на интелловской архитектуре? Думаю, почти никто. Если я ошибаюсь — отпишитесь в комментариях, мне любопытно в скольких неожиданных местах ваш код начал внезапно глючить :)
А что такого плохого у нас с Intel? Да все у нас хорошо, даже слишком. У интелловских x86 архитектур (т.е. не-Intanium) очень жесткая аппаратная модель памяти: total store order, TSO. Это означает, если очень упрощенно, что интелловские (и не только интелловские — архитектура x86 стандарт де-факто для большого куска рынка) процессоры выполняют записи всегда в том порядке, в котором они идут в коде программы. Другая формулировка: все потоки в системе видят все записи в одном и том же порядке, и этот порядок согласован с порядком соответствующих инструкций записи в коде потоков. Это уже гораздо больше, чем требует JMM от кода, выполняемого без дополнительных инструкций синхронизации. В частности, для случая небезопасной публикации это означает, что публикация в железной модели памяти x86 всегда безопасна. И единственным источником непредсказуемости остается JIT — который тоже может переставлять инструкции.
Может-то он может, да будет ли? Ну вот давайте, для примера, рассмотрим тот же DCL. Если взять псевдокод —
getInstance()
будет выглядеть примерно так (это дикая помесь байткода с явой и ассемблером — но вроде суть понятна):if( DCLSingleton.instance != null ) jmp #end; monitorEnter DCLSingleton.class; if( DCLSingleton.instance != null ) monitorExit DCLSingleton.class; jmp #end; localRef = allocate( sizeof(T) ); call DCLSingleton.<init>( localRef ); DCLSingleton.instance = localRef; monitorExit DCLSingleton.class; end: return DCLSingleton.instance;Если JIT сгенерирует прямо и непосредственно вот это — то на x86 все будет в шоколаде, ни один котенок не пострадает, никакой возможности увидеть ссылку на недоинициализированный объект не будет, потому что присвоение ссылки в shared variable идет после вызова конструктора, и x86 сам записи не переставляет — значит все потоки увидят именно сначала те записи, которые выполнены в рамках конструктора, а уж потом публикацию ссылки.
Разумеется, JIT мог бы сам переставить запись
DCLSingleton.instance = localRef
до вызова конструктора. Но для JIT это будет довольно опасная оптимизация, потому что он же не знает, что там, внутри DCLSingleton.<init>( localRef )
? Может, там программист заложился на то, что instance == null
— тогда, переставив запись JIT нарушит intra-thread semantics. Поэтому сделать такое он может только если ему на стадии оптимизации текущего метода доступна информация о коде конструктора. Современные JIT-ы не выполняют межпроцедурную оптимизацию, поэтому информацию о коде вызываемого метода JIT может получить только если он еще раньше принял решение встроить (inline) вызываемый метод. Тогда код конструктора становится частью кода текущего метода, и JIT может убедиться, что упреждающая запись instance
ничего не нарушит. А зачем бы JIT-у встраивать вызов конструктора? Встраивание — это агрессивная оптимизация, применяемая для очень горячего кода. Но ведь вся идея DCL в том-то и состоит, чтобы сделать синхронизированный код не горячим. Я уж молчу, что суть синглетона в том, чтобы конструктор вообще вызвался только один раз.
Это все мои, довольно спекулятивные предположения о том, как именно работает JIT. Они могут быть неверными в деталях, но суть остается та же — JIT довольно редко делает что-то, что нарушает hardware TSO. Один уважаемый человек™ рассказывал, что он как-то потратил день чтобы так написать DCL, чтобы он ломался бы хотя бы один раз на миллиард вызовов.
Это и означает, что, хотя в теории небезопасная публикация — крайне опасная штука, с очень далеко идущими последствиями, но, пока x86 остается доминирующей архитектурой на рынки серверов, а JIT-ы не делают межпроцедурную оптимизацию — программисты крайне редко будут сталкиваться с этими ужасными последствиями на практике.
UPD: Перечитал и ужаснулся — какое-то неверное представление тут создается :) Что я здесь хотел сказать: что есть очевидный, но довольно узкий сегмент высоконагруженного, высококонкурентного кода, в котором небезопасная публикация будет довольно стабильно генерировать ошибки даже на x86. В "обычном" же малонагруженном коде — типа начальной инициализации — в силу жесткости аппаратной модели памяти x86, и в силу того, что наиболее агрессивные оптимизации JIT применяет только к горячему коду небезопасность публикации будет незаметна. Она либо вообще не будет создавать ошибок, либо будет создавать их настолько редко и невоспроизводимо, что вы скорее примете их за баги в JVM/железе.
Тогда зачем мне весь этот гемморой?
В самом деле, возникает немного крамольная мысль: насколько оно полезно с практической точки зрения — писать корректный по JMM код? Если ошибки будут возникать только в лабораторных условиях в одном случае из миллиарда — так может я лучше потрачу время на поиск логических ошибок в коде, которые будут проявляться чаще? Система в целом не сильнее своего самого слабого звена — это применимо как к производительности, так и к надежности. Насколько оправдано тратить время на избавление от гонок в коде, если есть такие источники ненадежности как общий недостаток мозгов у разработчиков, ошибки в JVM, баги в железе и нашествие помидоров-убийц?Вообще-то лично для меня анализ корректности кода — ценен сам по себе, как интеллектуальная гимнастика. И я поначалу хотел так и написать — но чуть позже понял, что это не вся правда. Дело не только в том, что мне нравится решать головоломки с многопоточным кодом.
Дело еще и в том, что, по поему мнению, правила существуют не для того, чтобы их соблюдать, а для того, чтобы в обязательном порядке включать голову когда собираешься их нарушить. Нарушение JMM по незнанию или невнимательности — это именно недосмотр, ошибка. Нарушение JMM с осознанием того, какие выгоды ты от этого получаешь, и какие косяки где и как могут возникнуть в твоем коде — это вполне нормальная инженерная практика. Лично я предпочитаю знать, какие места в моем коде опасны, а так же почему они опасны, насколько опасны, и почему я их в таком виде оставил.
Мы не будем вечно сидеть на TSO. Поддержание такой строгой модели памяти стоит довольно недешево, и сильно ограничивает дальнейшее увеличение количества ядер. У интела уже есть Itanium с ослабленной моделью памяти, очевидно будут и другие модели. Кроме того на рынок серверов сейчас активно лезет ARM — и скорее всего таки пролезет. Ну и Азул тот же самый... Все идет к тому, что иметь дело с ослабленными аппаратными моделями памяти нам все равно придется — и мне кажется, лучше готовиться к этому заранее.
J2EE запускаемый на SPARC был распространен еще совсем недавно. Правда на сколько я помню там все работало через Servlets/EJB без запусков потоков вручную. Кстати на тех серверах можно было поймать spurious wakeup как раз. Еще на IBM AIX на сервере DB2 была использован UDF триггер на яве. На айбимвоской машине с их явой он глючил не по-детски. Хотя триггер на яве уже извращение само по себе.
ОтветитьУдалитьУ спарок вроде были разные режимы работы с памятью. И среди них был и TSO -- любопытно, в каком режиме была реализована JVM на них.
ОтветитьУдалитьРуслан, есть SPARC V8 PSO (но даже древние машины на sun4u из конца 1990-х – это уже SPARC V9) и SPARC V9 RMO (не поддерживаемый Solaris). С учётом того, что весь корпоративный сектор использует на SPARC исключительно Solaris, поиграть с чем-л, кроме TSO, не представляется возможным.
Удалитьhttps://os.inf.tu-dresden.de/Studium/DOS/SS2011/02-Coherency.pdf
http://people.engr.ncsu.edu/efg/506/s01/lectures/notes/lec21.pdf
спасибо за детальный разбор, было дело - тоже пытался (безуспешно=) на стандатном железе/jvm воспроизвести reordering ))
ОтветитьУдалитьМне кажется, у вас не очень удачный код получился. Во-первых, тяжеловатый вызов конструктора получается. Т.е. если JPanel/generateUUID заменить на что попроще -- (new Object()/new String()) -- шансы на нужный вам реордеринг будут повыше.
ОтветитьУдалитьА во-вторых чтение случайных элементов массива -- кажется, что это тоже лишняя сложность, которая только уменьшает шанс увидеть тот тонкий race, который вы хотите. Т.е. достаточно одной-единственной разделяемой ссылки. И 100 потоков не надо -- достаточно ровно столько, сколько у вас физических ядер (я бы даже рекомендовал HT-ядра не учитывать). Большое количество потоков лишь увеличивают число contexts switch-ей, и уменьшают реальную нагрузку
Вот тут мой вариант http://tools.assembla.com/svn/Behemoth/Tests/JAVA/test/src/main/java/test/threads/UnsafePublishing.java
не могу сейчас его проверить, потому что доступа к многоядерным серверам нет. Если у вас интерес не пропал -- было бы интересно посмотреть на результаты. А то Алексей DCL сломал (http://habrahabr.ru/post/143390/), а я еще в этом месяце ничего не сломал -- обидно как-то... :)
Этот комментарий был удален автором.
ОтветитьУдалитьпонял, только доступа к тем серверам тоже уже нет (уволился =).
ОтветитьУдалитьНо эксперименты продолжу на досуге ) Спасибо!
Sun and HP hardware is still around (me :) ). Thank you for a detailed explanation of the problem!
ОтветитьУдалитьTSO актуально не только для интела. Кажется, на спарках jvm тоже работает в режиме TSO. Насчет hp не знаю
ОтветитьУдалитьУ меня замечательно поймался reordering на intel x86-64:
ОтветитьУдалитьhttp://ru-java.livejournal.com/1060975.html
А вот поймать непольнотью проинициализированные объекты (без final полей) пока не получается
Ну вот же http://habrahabr.ru/post/143390/ shipilev практически это самое и сделал. Поймал ситуацию, когда при инициализации синглетона ссылка становится видимой до полей объекта по ссылке
ОтветитьУдалитьАга, я уже потом дочитал до туда. Круто! Ну значит на x86 можно ловить все описанные проблемы
ОтветитьУдалитьДобрый день, Руслан!
ОтветитьУдалитьВозможно ли избежать проблему небезопасной публикации в Double checked locking используя двойной барьер из volatile полей?
(извиняюсь за дурацкое форматирование)
public class DoubleCheckedLocking {
___private static DoubleCheckedLocking sInstance;
___private static volatile int sSaveBarrier = 42;
___private static volatile int sLoadBarrier = 41;
___// ... some fields
___private DoubleCheckedLocking() {}
___public static DoubleCheckedLocking getInstance() {
______if(sInstance == null) {
_________synchronized (DoubleCheckedLocking.class) {
____________if(sInstance == null) {
_______________DoubleCheckedLocking local = new DoubleCheckedLocking();
_______________// ... initialization
_______________sSaveBarrier = sLoadBarrier;
_______________sInstance = local;
____________}
_________}
______}
______return sInstance;
___}
___// ... some functionality
___// prevent compiler from cutting the volatile fields out
___protected int useBarriers(int newBarrier) {
______sLoadBarrier = newBarrier;
______return sSaveBarrier;
___}
}
То есть, как я полагаю sSaveBarrier = sLoadBarrier гарантирует initialization -hb-> sInstance publication.
Что думаете?
В вашем коде вы закладываетесь на атомарность конструкции sSaveBarrier = sLoadBarrier; Но это не так, ваша конструкция распадается на две:
Удалитьlocal r1 = sLoadBarrier;
sSaveBarrier = r1;
И теперь вы легко можете преобразовать код в такой:
local r1 = sLoadBarrier;
DoubleCheckedLocking local = new DoubleCheckedLocking();
// ... initialization
sSaveBarrier = sLoadBarrier;
sInstance = local;
sSaveBarrier = r1;
Что, собственно, ничем не отличается от кода без всех этих ваших ухищрений.
Изобретать асимметричную синхронизацию на симметричных примитивах (lock/unlock, vread/vwrite) -- это как изобретать вечный двигатель в рамках законов Ньютона, которые энергию сохраняют по самой своей структуре.
То есть, конечно, код вот такой:
Удалитьlocal r1 = sLoadBarrier;
DoubleCheckedLocking local = new DoubleCheckedLocking();
// ... initialization
sInstance = local;
sSaveBarrier = r1;
Бурные продолжительные аплодисменты.
ОтветитьУдалить