Сообщений 0    Оценка 50        Оценить  
Система Orphus

Сравнительное тестирование пяти способов сравнить байтовые массивы в C#

Автор: Харченко Андрей Владимирович
Опубликовано: 18.11.2015
Исправлено: 10.12.2016
Версия текста: 1.0
Предпосылки
Что и чем я тестировал
Главное
Размеры данных
Протестированные методы
Методика тестирования
Результаты измерений и первые выводы
Диазассемблирование и анализ отдельных функций
Выводы
Список литературы

Предпосылки

Написав очередную утилиту и добившись её работоспособности, я запустил профайлер и увидел, что огромный процент времени занимает сравнение массивов байтов.

Функция CompareByteArrays() лежала на критическом пути, и с этим надо было что-то делать. Как решить проблему алгоритмически, я не видел: алгоритмы подбирались заранее, и никаких идей о том, как уменьшить итоговую сложность, у меня не возникло. Поскольку CLR не предоставляет стандартного способа сравнить два куска памяти, метод был написан на скорую руку самостоятельно: я с самого начала не предполагал, что он будет работать быстро, а значит, можно было попытаться его «ускорить».

Так что, засучив рукава, я набрал в поисковике «Best Way to Compare Byte Arrays in .Net» и прошёлся по результатам. Поразительно, но в абсолютном большинстве случаев люди предлагали использовать либо LINQ, либо Enumerable.SequenceEqual(), что практически одно и то же. Даже на StackOverflow это был самый популярный ответ. Т.е. катастрофически популярно заблуждение вида:

Compiler\run-time environment will optimize your loop so you don't need to worry about performance.

Что и чем я тестировал

Главное

Код компилировался и запускался на машине с Windows 7 x64 со всеми последними обновлениями для .Net 4.0 Client Profile, т.е. с настройками Microsoft Visual Studion 2010 по умолчанию, и только для конфигурации x86, т.е. это 32-битный код. Во-первых, потому что большая часть кода, с которой я сталкиваюсь, написана для 32-битных систем. Во-вторых, я считаю, что для .Net крайне важна производительность именно в этой конфигурации. В частности, потому, что огромный объём уже существующих компонентов написан для 32-бит, и переписывать их никто не будет, а с ними нужно взаимодействовать, т.е. они определят конфигурацию конечного приложения. Во-вторых, крайне малому числу приложений действительно нужно 64 бита – необходимая разрядность определяется в первую очередь требованиями к памяти и целевой платформой. Современные 64-разрядные x86-совместимые процессоры аппаратно поддерживают 32-битные задачи [1][2]. Логично, что Windows x64 эту возможность использует, исполняя 32-битный код напрямую [3]. Компиляция изначально 32-битного приложения в 64 бита умножает необходимую для него память и снижает его производительность, потому что опции компилятора размер TLB процессора не меняют, кэш первого уровня — тоже, а размер указателя удваивают, что в свою очередь ещё и необходимую границу выравнивания данных изменяет [4].

Размеры данных

В моей изначальной задаче требовалось сравнивать байтовые массивы размером 16 байт и размерами от 1 до 4*1024 байт. 16 байт — размер MD5, 4 Kb — размер стандартной страницы памяти в Windows, поэтому он был выбран для буфера ввода-вывода.

Однако тестировал сравнение я на блоках от 1 байта до 1/2 мегабайта, по той простой причине, что хэши бывают размером не только 16 байт, но и 4, и даже 2 байта (CRC16, CRС32), а страницы памяти не только по 4 килобайта, но и 2 МБ[2] и даже 4 МБ. Результаты, показанные на блоках 1/2 MB, оказались достаточны, чтобы делать вывод о работе с блоками больших размеров, к тому же моё время не безгранично (в процессе тестирования компьютер лучше не трогать, чтобы не отнимать время у описываемого процесса).

Исходя из результатов первых прогонов, я счёл достаточным сравнение методов на 25 различных размерах тестовых данных. Для этого я построил цикл тестирования таким образом, чтобы первый тестовый набор состоял из массивов размером 1 байт, а на каждом следующем шаге размер тестовых массивов умножался на одинаковый множитель.

Параметры задавались константами в коде
        private const int CountArrays = 128; //Количество сравниваемых тестовых наборовprivate const int StartArraySize = 1; //Стартовый размер тестового набораprivate const int MaxArraySize = 512 * 1024; //Максимальный размер тестового набораprivate const int StepsCount = 25; //Количество шаговprivate const int MeasurementsCount = 10; //Количество измерений
Цикл тестирования
        double sizeMultiplier = 1;
   DoInvestigationStep(sizeMultiplier);

   const int MaxMultiplier = MaxArraySize / StartArraySize;
   var stepMmltiplier = Math.Pow( MaxMultiplier, 1 / (double)StepsCount );
   for (var step = 1; step <= StepsCount; step++)
   {
      sizeMultiplier = Math.Pow(stepMmltiplier, (double) step);
      DoInvestigationStep(sizeMultiplier);
   }
        var arraySize = (int) (StartArraySize * p_SizeMultiplier);

Протестированные методы

Использование интерфейса System.Collections.IStructuralEquatable

Это относительно новый для C# способ, он появился только в .NET 4, поэтому он представлял для меня особый интерес.

          private static bool ByteArrayCompareWithIStructuralEquatable(byte[] p_BytesLeft, byte[] p_BytesRight)
{
   IStructuralEquatable eqa1 = p_BytesLeft;
   return eqa1.Equals(p_BytesRight, StructuralComparisons.StructuralEqualityComparer);
}

LINQ, а точнее Enumerable.SequenceEqual

Это один из самых простых методов, самый простой для реализации. Кроме того, это самый популярный метод.

          private static bool ByteArrayCompareWithSequenceEqual(byte[] p_BytesLeft, byte[] p_BytesRight)
{
   return p_BytesLeft.SequenceEqual(p_BytesRight);
}

PInvoke, для CRT функции memcmp()

Теоретически, это должен быть самый быстрый способ, но выяснилось, что это не всегда так: накладные расходы на взаимодействие с платформой съедают довольно большое время, и этот метод в некоторых случаях теряет свою привлекательность.

PInvoke с «обвязкой»
[DllImport("msvcrt.dll", CallingConvention = CallingConvention.Cdecl)]
private static extern int memcmp(byte[] p_BytesLeft, byte[] p_BytesRight, long p_Count);

private static bool ByteArrayCompareWithPInvoke(byte[] p_BytesLeft, byte[] p_BytesRight)
{
   // Validate buffers are the same length.// This also ensures that the count does not exceed the length of either buffer.  return p_BytesLeft.Length == p_BytesRight.Length
              && memcmp(p_BytesLeft, p_BytesRight, p_BytesLeft.Length) == 0;
}

В лоб. Т.е. прямое сравнение байтов в цикле for(;;)

Это самый очевидный способ сравнить два массива, именно поэтому он представляет интерес.

Изначально метод казался не слишком быстрым, но оказалось, что для многих ситуаций он вполне приемлем.

Функция ByteArrayCompareWithSimplest()
          private static bool ByteArrayCompareWithSimplest(byte[] p_BytesLeft, byte[] p_BytesRight)
{
   if (p_BytesLeft.Length != p_BytesRight.Length)
      return false;

   var length = p_BytesLeft.Length;

   for (int i = 0; i < length; i++)
   {
      if (p_BytesLeft[i] != p_BytesRight[i])
         return false;
   }

   return true;
}

Оптимизированный unsafe-метод от Хафора Стефансона

Этот оптимизированный метод делает сравнение блоками размером 64 бита для возможно большей части массива, рассчитывая на то, что начало массива выравнено по границе QWORD. Он также будет работать, если нет QWORD-выравнивания, но с меньшей скоростью (http://stackoverflow.com/questions/43289/comparing-two-byte-arrays-in-net). Для буферов среднего размера этот метод оказался самым быстрым.

Функция UnsafeCompare()
          // Copyright (c) 2008-2013 Hafthor Stefansson
          // Distributed under the MIT/X11 software license
          // Ref: http://www.opensource.org/licenses/mit-license.php.
          private static unsafe
          bool UnsafeCompare(byte[] a1, byte[] a2)
{
   if (a1 == null || a2 == null || a1.Length != a2.Length)
      return false;
   fixed (byte* p1 = a1, p2 = a2)
   {
      byte* x1 = p1, x2 = p2;
      int l = a1.Length;
      for (int i = 0; i < l / 8; i++, x1 += 8, x2 += 8)
         if (*((long*) x1) != *((long*) x2))
            return false;
      if ((l & 4) != 0)
      {
         if (*((int*) x1) != *((int*) x2)) return false;
         x1 += 4;
         x2 += 4;
      }
      if ((l & 2) != 0)
      {
         if (*((short*) x1) != *((short*) x2)) return false;
         x1 += 2;
         x2 += 2;
      }
      if ((l & 1) != 0)
         if (*((byte*) x1) != *((byte*) x2))
            return false;
      return true;
   }
}

Методика тестирования

Тестовый набор

Чтобы максимально приблизить условия тестирования к боевым и исключить «застревание» тестовых данных в кэше процессора (максимально работать именно с памятью), было решено сгенерировать множество тестовых массивов и сравнивать их друг с другом, т.е. каждый массив с каждым.

В качестве тестового набора был выбран «зубчатый» массив (в оригинальной документации — «Jagged Array»). Было несколько альтернатив, например, List<byte[]> и LinkedList<byte[]>, но альтернативы не устроили временем доступа к элементу, хотя и массив в .NET здесь не блещет: CLR в любом случае проверяет индекс на выход за границы массива, даже если это массив с нулевой базой.

Тестовые данные генерировались таким образом, чтобы отличались все массивы, а отличающийся элемент массива находился ровно посередине.

Генерация тестовых данных
          private
          static
          void PrepareTestData(int p_ArraySize)
{
   for (int i = 0; i < CountArrays; i++)
   {
      var byteArray = newbyte[p_ArraySize];
      byteArray[p_ArraySize / 2] = (byte) (i & 0x000000ff);

      s_arrays[i] = byteArray;
   }
}

Выполнение сравнений

Так как все массивы предполагалось сравнивать со всеми, то общий вид метода, время исполнения которого измерялось, представляет собой два вложенных цикла по всем массивам набора, а внутри них вызывается испытуемый метод. Суть происходящего можно выразить кодом:

          for (int i = 0; i < CountArrays; i++)
      for (int j = 0; j < CountArrays; j++)
         Compare( s_arrays[i], s_arrays[j] );

Однако тут есть одно «но»: если никак не использовать результат «вычислений», то CLR имеет полное право само «вычисление» не производить. Я с этим сталкивался раньше, когда экспериментировал с C++. При включенной оптимизации «-O3» было весьма проблематично что-либо измерить, т.к. время раз за разом получалось нулевым. Поэтому такой сценарий было решено исключить с самого начала, так что результат работы функции сравнения «аккумулировался» и возвращался, а на самом верхнем уровне анализировался.

Сравнение без игнорирования результата
          var result = true;
   for (int i = 0; i < CountArrays; i++)
      for (int j = 0; j < CountArrays; j++)
      {
         var tmp = Compare( s_arrays[i], s_arrays[j] );

         result = result && tmp;
      }
   return result;
Анализ результата сравнения
          var stubLocalVar = p_СomparisonMethod();
   if (stubLocalVar)
      thrownew InvalidOperationException();

Поскольку методов сравнений 5, а вышеописанный шаблон общий, то кажется логичным определить общий, «шаблонный» метод, и передать метод сравнения в него. Таким образом:

Неправильный метод вызова функций

Такой способ, безусловно, исключает копирование/вставку и уменьшает вероятность ошибки, но в то же время создаёт излишнюю косвенность вызова и исключает встраивание метода (inlining), что, в свою очередь, приводит к потере точности измерений, особенно учитывая, что вызовов много. Именно поэтому мне пришлось создать пять практически одинаковых методов:

          private
          static
          bool CompareArraysWithUnsafeMethod();
privatestaticbool CompareArraysWithSimplestMethod();
privatestaticbool CompareArraysWithSequenceEqualMethod();
privatestaticbool CompareArraysWithPInvokeMethod();
privatestaticbool CompareArraysWithIStructuralEquatableMethod();

Однако уровнем выше я уже мог применить шаблонный метод.

Из приведённого ниже кода видно, что функция MeasureComparisonTime(), в которой измеряется время выполнения метода сравнения, принимает в качестве параметра делегат типа Func<bool>. Именно его время выполнения и измеряется.

Функции, производящие измерение метода

Методика измерений

Измерение времени производилось с помощью штатного секундомера (класс System.Diagnostics.Stopwatch), в основе которого лежит QueryPerformanceCounter() (http://msdn.microsoft.com/ru-ru/library/system.diagnostics.stopwatch(v=vs.110).aspx ). Естественно, интересовали не миллисекунды, а тики: в случае крохотных массивов все измерения в миллисекундах были бы нулевыми. Также была идея задействовать свой "велосипед" на основе RDTSC[6], но, во-первых, несколько первых прогонов показали, что для текущей методики точности вполне хватает, а во-вторых, предупреждение о необходимости использования ProcessThread.ProcessorAffinity, которое появилось в последних версиях документации, позволяет предположить, что в основе работы этого класса лежит вышеупомянутый счётчик тактов процессора. Все измерения повторялись 10 раз, и бралось лучшее время. Число 10 было подобрано экспериментально, как дающее достаточно точные результаты при минимальных затратах времени.

Функция, производящая все измерения

Результаты измерений и первые выводы

Перед началом эксперимента я примерно догадывался, какой метод окажется победителем, а какой аутсайдером, однако результаты меня всё-таки удивили. Мои прогнозы оказались не совсем верны.

Лучшее время (тики)

Размер массива (байты)

unsafe

В лоб

PInvoke

SequenceEqual

IStructuralEquatable

276

1

1,7

1

6

10,5

55

276

1

1,7

1

6,3

10,1

55,7

325

2

1,3

1

5,3

11

95,2

374

4

1,1

1

4,8

11,4

121,3

413

8

1

1,3

5

14,1

181,2

412

13

1

1,7

4,7

17,5

252,5

490

23

1

2,3

3,7

22,1

364,8

554

39

1

3,4

3,5

30,1

535,9

691

67

1

4,3

2,9

39,1

727,5

887

114

1

5,6

2,4

50,3

964,1

1212

194

1

4,6

2,1

61,5

1190,9

1875

328

1

4,8

1,8

65,8

1295,8

2897

556

1

5

1,6

71,5

1416,9

4565

942

1

5,3

1,4

76,3

1521,1

7711

1595

1

5,2

1,3

76,2

1521,2

12482

2702

1

5,4

1,3

79,4

1593,6

20692

4576

1

5,5

1,2

81,2

1626,2

34369

7750

1

5,6

1,2

82,8

1657,1

58048

13124

1

5,6

1,2

82,9

1661,9

97511

22226

1

5,6

1,2

83,6

1677,3

173805

37640

1

5,4

1,1

79,5

1585,7

295989

63743

1

5,3

1,1

79,3

1574,9

588797

107949

1

4,6

1,1

67,5

1340,9

1010768

182811

1

4,6

1,1

67

1340,4

1705668

309590

1

4,6

1,1

67,3

1334,1

2885452

524287

1

4,6

1,1

67,3

1329,1

Результаты удивили следующим:

Первое: CRT функция просто обязана быть хорошо оптимизирована, и я рассчитывал, что на определённом этапе (размере тестового массива) её скорость перекроет накладные расходы (overhead) платформенного вызова, но этого не произошло. Позже я повторил тестирования с массивами значительно большего размера, но даже на 1.5 мегабайтах unsafe-код оказывался быстрее.

Второе: я догадывался, что IStructuralEquatable окажется медленным, но цифры меня просто поразили: такого я точно не ожидал.

Диазассемблирование и анализ отдельных функций

Столь серьёзная разница между unsafe и Simplest на больших массивах (я ожидал не более двух-трёхкратного «перевеса») позволяет предположить, что с оптимизацией циклов и обращений к элементам массива в .Net не всё так гладко, как утверждают приверженцы .Net. Соответственно, я не отказал себе в удовольствии посмотреть на результаты работы JIT'ера, т.е. на непосредственно генерируемый машинный код.

Анализ функции CompareArraysWithSimplestMethod

Для этого в начало метода был вставлен Thread.Sleep(60 * 1000); после запуска релизной сборки я подцепился к процессу OllyDebug'ом. Такой хитрый ход нужен был для того, чтобы ни в коем случае не порушить оптимизации CLR — увидеть картину такой, какая есть.


Спустившись вниз по стеку вызовов от ntdll.NtDelayExecution() и SleepEx(), я нашёл свою функцию и, после её внимательного изучения, был в очередной раз неприятно удивлён. Что мне здесь очень не понравилось:

Анализ функции CompareArraysWithSimplestMethod

Результат декомпиляции этой функции разжёг моё любопытство и навёл на мысль об остальных функциях. Я решил сравнить CRT-функцию и unsafe-вариант. Сперва я решил посмотреть на unsafe-вариант. Для этого я проделал те же операции, что и для первой функции, за исключением того, что Thread.Sleep() вставил не в саму функцию, а перед её вызовом. Это вряд ли могло как-либо повлиять на суть происходящего, но несколько упростило декомпиляцию: unsafe-функция явно сложнее первой.

Место вставки Thread.Sleep()

Интерес также представляет первая половина этой функции, т.е. до момента вызова UnsafeCompare(). Она, так же, как и первая, демонстрирует, что любое обращение к элементу массива вызывает проверку индекса на вхождение в границы массива. Я подчеркнул это в листинге.

CPU Disasm CompareArraysWithUnsafeMethod

Результат декомпиляции функции оказался довольно большим и на один экран не помещался, поэтому я не стал приводить скриншот окна дебагера. Так как большой цельный листинг читать утомительно и непродуктивно, то здесь я привожу его логически объединёнными кусками, сопровождая каждый кусок кратким комментарием.

UnsafeCompare().ParametersChecking

В соответствии с соглашением вызова fastcall, которому следует .NET Framework [7][8], в регистрах ecx и edx находятся первый и второй параметры, в соответствии с порядком слева направо. В приведённом листинге хорошо видна последовательная проверка входных параметров, он почти однозначно соответствует коду на C#

          if (a1 == null || a2 == null || a1.Length != a2.Length)
      returnfalse;

Однако особого внимания заслуживают выделенные строки: назначение их неясно, и они запутывают. Чтобы понять, что это такое и зачем оно может быть нужно, мне пришлось поставить ещё один эксперимент, в ходе которого я написал простейшую unsafe-функцию на C#, которая использует предложение fixed и обращение по указателю, и провёл с ней аналогичные действия.

Unsafe функция
          private
          static
          unsafe
          int func1(byte[] param1)
{
   fixed (byte* p = param1)
   {
      return *p;
   }
}
CPU Disasm

Из приведённого листинга становится понятным, что в результате JIT-компиляции переменная в предложении fixed обязательно помещается в стек, вне зависимости от доступности регистров общего назначения. Это хорошо видно из того факта, что регистр eax был сохранён в стеке, в дальнейшем не использовался и, следовательно, был свободным и доступным для операций (до смещения 0x26 от начала функции), но под хранение временных данных была использована стековая переменная по смещению [ebp-4] (назовём её var1). Переменная сразу же обязательно инициализируется нулём, несмотря на то, что потом это значение не используется, а просто затирается. Например, по смещению 0x15 в var1 снова заносится ноль, несмотря на то, что там к этому моменту уже хранится ноль.

Таким образом, становится понятным, что никакого особого смысла выделенные строки в листинге UnsafeCompare.CPU Disasm.ParametersChecking не несут, это всего лишь побочный эффект компиляции. Также из вышеприведённого листинга становится очевидным, что проверка массива в выражении fixed производится в три этапа: сначала массив проверяется на равенство null, потом его длина проверяется на равенство нулю (команда jne анализирует только ZF), и только затем на равенство нулю и отрицательность значения (jbe проверяет и ZF и CF). С моей точки зрения весьма странно, что последние два действия не были объединены в одно, и тем более странно, что команда cmp выполняется дважды, ведь условный переход не сбрасывает флаги.

Проведённый эксперимент значительно упрощает дальнейший анализ кода.

Предложение fixed из функции CompareArraysWithUnsafeMethod()

Никаких сюрпризов компилятор здесь не преподнёс, т.е. алгоритм компиляции даёт легко предсказуемые результаты. Например, переменные, инициализируемые в предложении fixed, в любом случае размещаются в стеке.

Инициализация переменных внутри блока fixed
part3:
; ECX              <======= a1; EDX              <======= a2.BufferPointer; var1             <======= a1.BufferPointer; var2             <======= a2.BufferPointer
001B0C5D    8B45 F0         moveax, [ebp-10]              ; eax <-- var1
001B0C60    8BF0            movesi, eax ; esi <-- eax

001B0C62    8B45 EC         moveax, [ebp-14]              ; eax <-- var2
001B0C65    8BF8            movedi, eax ; edi <-- eax

001B0C67    8B41 04         moveax, [ecx+4]               ; eax <-- a1.Length
001B0C6A    8945 E8         mov     [ebp-18], eax ; var3 <-- eax

Инициализация переменных внутри блока fixed любопытна тем, что хорошо демонстрирует принцип, по которому JIT-компилятор генерирует код. Здесь хорошо видно, что вместо прямой пересылки значений из стековых переменных в индексные регистры, значения сначала помещаются в регистр-аккумулятор. Может быть, в этом и есть какой-нибудь тайный магический смысл, но выглядит это (пересылка в eax) просто как лишнее действие.

Цикл по 8 байт

Структура цикла достаточно тривиальна, например, счётчик цикла традиционно располагается в ecx, граничное значение счётчика располагается в ebx, что тоже традиционно. Примечательно здесь лишь то, что первая проверка условия цикла располагается сразу за инициализацией и выглядит не так, как основное условие цикла. Также очевидно, что чудес не бывает, и префикс REX недоступен ни в Protected Mode, ни в Compatible Mode, т.е. сравнение QWORD-блоками невозможно, поэтому сравниваются блоки размером DWORD. Однако из кода видно, что перед выполнением сравнений в регистры eax, edx загружаются соответствующие части первого массива, т.е. JIT-компилятор попытался произвести машинный код, максимально соответствующий исходному коду.

Бросается в глаза то, что компилятор здесь не стал применять строковую инструкцию CMPSD, а именно, её «короткую» форму, которая выполняет сравнение DWORD-блоков, размещённых по адресам esi и edi, выставляя соответствующие флаги. В этом случае размер машинного кода был бы меньше в несколько раз: команда mov здесь имеет размер 2 и 3 байта, команда cmp – 2 и 3 байта, а размер каждой команды CMPSD (в короткой форме) был бы всего 1 байт, т.е. для двух команд всего 2 байта. Это наводит на мысли о нежелании JIT-компилятора оптимизировать код.

Из приведённых листингов очевидно, что пара команд, первая из которых – пересылка в eax, является паттерном, которому компилятор следует неукоснительно.

Попытка сравнить блоки размером DWORD, выполняется, если такой объём остался

Попытка сравнить блоки размером WORD, выполняется, если такой объём остался

Попытка сравнить блоки размером BYTE, выполняется, если такой объём остался

Возврат результата и выброс исключения

Анализ CRT функции memcmp()

Эта функция представляет интерес ещё и потому, что не просто сравнивает два буфера, а выясняет отношение между ними, а значит, она сложнее, чем те, что рассматривались ранее.

После подцепления дебагером я выяснил, что в память процесса по базовому адресу 0x76C20000 была загружена C:\Windows\SysWOW64\msvcrt.dll версии 7.0.7601.17744.


Это важное уточнение, поскольку код разных версий библиотек может сильно отличаться, т.к. они могут быть скомпилированы с разными опциями компилятора, и даже более того, разными компиляторами.

Первый же взгляд на препарируемую функцию меня несколько смутил: во-первых, перед стандартным прологом, в самом начале функции, располагалась странная инструкция, а во-вторых, размеры этой функции поражают воображение. Бросилось в глаза наличие «длинных» джампов, к тому же switch с 32 case’ами устрашает.

Странная инструкция
          76C37975   .  8BFF          mov     edi, edi                                   
          ; INT msvcrt.memcmp(buf1,buf2,count)
76C37977   .  55            pushebp
76C37978   .  8BEC          movebp, esp

Она копирует регистр сам в себя, не обновляя при этом никаких флагов, т.е. результат её выполнения нулевой, прямо как nop, но размером в 2 байта. Промотав код в окне отладчика, я обнаружил, что точно так же начинаются множество других функций. Благодаря блогу Рэймонда Чена объяснение нашлось быстро. Это действительно аналог nop.

ПРИМЕЧАНИЕ

It's a hot-patch point.

The MOV EDI, EDI instruction is a two-byte NOP, which is just enough space to patch in a jump instruction so that the function can be updated on the fly. The intention is that the MOV EDI, EDI instruction will be replaced with a two-byte JMP $-5 instruction to redirect control to five bytes of patch space that comes immediately before the start of the function. Five bytes is enough for a full jump instruction, which can send control to the replacement function installed somewhere else in the address space.

http://blogs.msdn.com/b/oldnewthing/archive/2011/09/21/10214405.aspx

Длинные джампы и очень большой switch

В связи с большой трудоёмкостью анализа всей функции было решено не дизассемблировать её полностью, к тому же интерес представляли лишь две вещи:

Оценка накладных расходов на взаимодействие с платформой

Для оценки накладных расходов на вызов функции было решено провести трассировку кода от управляемого кода до начала самой функции. Для этого в начале функции была установлена точка останова, и после возврата из Thread.Sleep() начата трассировка. Однако результат первой попытки трассировки оказался неудачным: лог трассировки оказался слишком большим (около 100 тысяч строк), что, вероятно, говорило о том, что была выполнена DllMain(), также существовала вероятность, что был захвачен какой-то код CLR, возможно, код JIT-компилятора. Что именно там выполнялось, я не стал выяснять: это не представляло интереса, т.к. подобный стартовый код выполняется лишь единожды и на общую картину почти не влияет. Чтобы исключить этот код, я перед вызовом Thread.Sleep() вставил ещё один вызов memcmp() и заново произвёл трассировку. В результате чего получил чуть более ста строк.


Часть лога трассировки

Из приведённого лога видно, что, во-первых, по пути к функции происходит как минимум один косвенный вызов, а во-вторых, CLR достаёт адрес конечной функции из какой-то структуры данных, т.е. вызов обладает значительной косвенностью и не оставляет блоку предсказания переходов никакой надежды на выполнение его миссии. Это делает бессмысленным вынос таких функций за пределы управляемого кода в том случае, если они не обрабатывают большие порции данных единовременно и не требуют большого времени вычислений.

Оценка основного кода функции

В лучшем, наименее ресурсоёмком, случае функция обнаружит различие в первом же байте и вернёт результат. Именно в этом случае функция затратит наименьшее время. В худшем случае функция сравнит массивы целиком и не обнаружит различий. Очевидно, что во втором случае данные будут сравниваться блоками в цикле.

Поскольку провести дизассемблирование и анализ функции целиком за приемлемое время возможным не представляется, то для оценки выполняемого кода было решено сделать две трассировки, и уже по логу трассировки оценивать оба этих случая. Для анализа лучшего случая, во-первых, была модифицирована функция генерации тестовых данных так, чтобы все массивы отличались, начиная с первого байта, а во-вторых, модифицирована функция, сравнивающая все массивы, так, чтобы в первой же итерации цикла сравнивались разные массивы.

Модифицированная функция сравнения массивов

Первая трассировка (лучший случай)

Первое, что здесь бросается в глаза – то, что обработка частных случаев, т.е. случаев, когда параметр count лежит в пределах [0..4], сделана довольно необычно. Остаётся только гадать, является ли это результатом компиляции предложения switch или там действительно была заведена локальная переменная, которая декрементировалась на каждом шаге проверки. Однако отладочная информация утверждает, что это всё-таки был switch. С точки зрения оптимизации это вполне разумное действие, т.к. не выполняется инициализация цикла.

Второе, что сразу же бросилось в глаза – весьма необычный способ занесения числа 0x20 в регистр edx (через стек). Это очень похоже на какой-то артефакт компиляции, и явно говорит о том, что функция писалась не на ассемблере. Человек бы такого не написал, т.к. это бессмысленно: стек находится в памяти, а к ней обращения всегда медленнее, чем к регистрам. Рискну предположить, что это артефакт встраивания (inline).

После обнаружения различия двойных слов в буферах выполняется переход по адресу 0x75AA8178, где происходит загрузка первых байтов из исходных буферов в регистры esi и ebx по адресам, где было обнаружено различие. Затем следует вычисление разницы между этими байтами, и, если не обнаружено различий, то загружаются следующие байты, и так для всего двойного слова. Примечательно, что результат не зависит от номера байта, в котором обнаружено различие. Это видно из того, что код формирования результата для последнего байта в DWORD’е полностью идентичен коду аналогичного назначения для первого байта, приведённому выше в трэйслоге первой трассировки.

Последовательное сравнение байтов двойного слова

Дублирование кода нехорошо, но не страшно, а вот последовательное сравнение байтов – не лучший способ сравнения двойных слов, тем более что номер байта на результат не влияет. Таким образом, уже видно, что этот код несколько странноват, возможно, потому, что исходники ещё более странноваты.

Первый взгляд на лог второй трассировки: за одну итерацию цикла сравниваются 8 двойных слов, и это хорошо: видно, что цикл развёрнут, а с другой стороны, после каждого сравнения идёт абсолютно одинаковый бесполезный код: в регистр esi заносится 0 и анализируется содержимое регистра esi. У меня нет никаких предположений о том, зачем это было сделано, однако есть предположение о том, как такое могло получиться: во-первых, это очень похоже на результат работы какого-то макроса, формировавшего ассемблерный код, а во-вторых, похоже, что майкрософтовский компилятор C не так хорош, как я об этом думал раньше.

Вторая трассировка (только цикл)

Примечательно, что на больших объёмах тестовых данных этот код показал результат на ~10% хуже, чем код, использующий unsafe. Понятно, что основное время при сравнении массивов данных уходит на операции чтения из памяти, которая значительно медленнее, чем кэш процессора и, тем более, регистры. Но столь серьёзная разница, которую дали одни лишь операции с регистрами процессора, говорит о том, что оптимизации компилятора крайне важны. Рискну предположить, что тестирование на более слабом процессоре, например, на процессоре с меньшей тактовой частотой, дало бы значительно более существенную разницу.

Выводы

  1. Если надо быстро сравнивать маленькие (7 байт и меньше) массивы, берём наиболее очевидный способ (побайтное сравнение в цикле), большие — unsafe, а всё остальное от лукавого.
  2. Вокруг .Net и CLR ходит много легенд. Людей убедили в том, что JIT-компилятор генерирует хороший, оптимизированный код, что CLR «затачивает» машинный код под конкретный процессор. Это неправда. В теории JIT-компилятор способен творить чудеса оптимизации, но на практике не делает этого. Нужен быстрый код — берите C++-компилятор от Intel, а если нужно вообще максимум из железа выжать, то вооружайтесь руководством по оптимизации от одноимённой фирмы (AMD или Intel) и пишите на ассемблере.
  3. Анализ C-RunTime функции показывает, что компилятор не творит чудес, даже если это один из лучших C-компиляторов – MS VC. Цитата из статьи «О реализации метода оптимизации при компиляции» (http://rsdn.ru/article/optimization/optimization.xml): «Только если особый случай не найден, компилятор выполняет реализацию, рассчитанную на самый общий случай и потому потенциально менее эффективную».

Список литературы

  1. Intel® 64 and IA-32 Architectures Software Developer Manuals.CHAPTER 2. Intel ® 64 Architecture http://www.intel.com/content/www/us/en/processors/architectures-software-developer-manuals.html.
  2. AMD64 Architecture Programmer’s Manual Volume 1: Application Programming CHAPTER 1 Long Mode
    http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2012/10/24592_APM_v11.pdf
  3. Intel® 64 and IA-32 Architectures Optimization Reference Manual. CHAPTER 3. Alignment http://www.intel.com/content/www/us/en/architecture-and-technology/64-ia-32-architectures-optimization-manual.html
  4. Windows Internals, Sixth Edition, Part 1, CHAPTER 5 Processes, Threads, and Jobs
  5. Windows Internals, Sixth Edition, Part 2, CHAPTER 10. Memory Management
  6. Intel® 64 and IA-32 Architectures Software Developer Manuals. CHAPTER 17. TIME-STAMP COUNTER
  7. MSDN Magazine 2005, May: Drill Into .NET Framework Internals to See How the CLR Creates Runtime Objects
    http://msdn.microsoft.com/en-us/magazine/cc163791.aspx#S6
  8. Joe Duffy, Professional .NET Framework 2.0 (Programmer to Programmer). Chapter 3: Inside the CLR, Just-In-Time (JIT) Compilation


Любой из материалов, опубликованных на этом сервере, не может быть воспроизведен в какой бы то ни было форме и какими бы то ни было средствами без письменного разрешения владельцев авторских прав.
    Сообщений 0    Оценка 50        Оценить