Генерация изображений с использованием CGContext

На одном из проектов стояла задача генерации и отображения изображений. Генерировать изображение нужно путем наложения различных объектов (кривые, символы, текст, изображения) в определенной последовательности на базовое изображение. Также требовалось, чтобы генерация изображений не замедляла основной поток. Для реализации данной задачи была изучены следующие области: взаимодействие с CGContext, способы отрисовки различных фрагментов изображения и работа в фоновых потоках. Об этом и пойдет дальше речь.
Создать изображение можно несколькими способами:

отрисовывать объекты UIKit: UIView, UIImageView и т.д. или отрисовывать объекты Core Animation: CALayer, CATextLayer и т. д., и объекты Core Animation и объекты UIKit отрисовываются в контексте CGContext. Основные отличия в том, что объекты UIKit нельзя отрисовывать в фоновом потоке, что необходимо для поставленной задачи, поэтому были выбраны объекты CALayer и его подклассы.
Сначала нужно создать основной слой, который будет представлять оригинальное изображение. Чтобы не терять качество, размер основного слоя должен быть равен размеру оригинального изображения. Далее для каждого объекта наложения создается свой слой (CALayer для символов, CAShapeLayer для кривых, CATextLayer для текста). На каждом слое применяется необходимая конфигурация (цвет, толщина кривых, прозрачность, расположение в основном слое - origin). Все эти слои нужно вставить в основной слой.
После конфигурации всех слоев необходимо создать контекст CGContext. Это можно сделать несколькими способами:

1) Прописать необходимую конфигурацию вручную.

2) Воспользоваться методом: UIGraphicsBeginImageContext(size) или UIGraphicsBeginImage-
ContextWithOptions(size,opaque,
scale).

3) Создать рендерер UIGraphicsImageRenderer с необходимым контекстом, воспользовавшись методом: UIGraphicsImageRenderer(size: rect.size)
Попробовав вышеперечисленные методы выбор пал на первый вариант, так как он показал более лучшую скорость выполнения.

Моя настройка выглядит так:
let width = layer.frame.size.width.int
let height = layer.frame.size.height.int
let colorSpace = CGColorSpaceCreateDeviceRGB()
let bytesPerPixel = 4
let bytesPerRow = bytesPerPixel * width
let rawData = malloc(height * bytesPerRow)
let bitsPerComponent = 8
guard let context = CGContext(data: rawData, width: width, height: height, bitsPerComponent: bitsPerComponent, bytesPerRow: bytesPerRow, space: colorSpace, bitmapInfo: CGImageAlphaInfo.premultipliedFirst.rawValue | CGImageByteOrderInfo.order32Big.rawValue) 
Перед рендером слоя в контексте необходимо проверить, перевернут ли слой.
if layer.contentsAreFlipped() {
            	let flipVertical = CGAffineTransform(a: 1, b: 0, c: 0, d: -1, tx: 0, ty: layer.frame.size.height)
            	context.concatenate(flipVertical)
        	}
Вызываем рендер слоя в контексте: layer.render(in: context) и создаем изображение: guard let cgImage = context.makeImage()
В процессе работы я столкнулся с утечками памяти при работе с контекстом. Сначала я попробовал высвободить память, которую выделял для контекста, функцией free(rawData). Это чуть-чуть помогло, но все равно утечка осталась, хоть и уменьшилась.

Следующим действием было оборачивание всей работы с контекстом в autorelease {} блок. Казалось бы, что утечка пропала, но при одновременном рендере нескольких изображений в фоновом потоке main thread блокировался, и утечки появились вновь. В итоге было решено каждый рендер изображения обернуть в операцию и использовать operationQueue, autorelease блок был убран, main thread перестал блокироваться и утечки пропали.
Спасибо за внимание!