My portfolio.
Translating.
The quick brown fox jumps over the lazy dog
Buffalo buffalo Buffalo buffalo buffalo buffalo Buffalo buffalo
James, while John had had "had", had had "had had"; "had had" had had a better effect on the teacher
A ship-shipping ship shipping shipping ships
That that exists exists in that that that that exists exists in
When you wait for the waiter, do you not become the waiter
Brief:
Translate design instructions for an ad for a mobile game. Russian to English.

Original:
Dominations_007
Идея: Смена эпох, как в известном CG Challenge и топе 1го пака.
Гипотеза: используя в качестве референса и ориентира для креатива известный gamedev подход с более чем 7,5 млн просмотров, проверяем отклик у целевой аудитории. Поскольку мы адаптируем события в сценах под игровую тематику, это должно хорошо сказаться на перформансе. Также данный креатив является измененной версией топового креатива из первого пака RUN, который уже дал определенные положительные результаты.
Сценарий:
Используя клиентских и стоковых персонажей и локации показываем, как персонаж идет постоянно слева направо и несет какой-то груз.
Эпохи подписываем в нижней части креатива.
В верхней части креатива используем текст - сможешь пройти сквозь все эпохи Dominations?
Добавляем символизма в креатив- груз должен олицетворять сложность конкретной эпохи.
  1. 4.Используем эпоху каменного века:
  • стоунхендж на фоне,
  • герой- пещерный человек, который волочит огромный камень для постройки дома;
  • окружение, соответствующее эпохе.
  1. Используем эпоху индустриальную:
  • на фоне эйфелева башня;
  • показываем героя - солдата в каске, которые волочит за собой пушку на колесах или тяжелый рюкзак.
  • окружение по возможности Франции при Наполеоне.
  1. Используем космическую эпоху:
  • на фоне космический корабль;
  • сцена на луне, где космонавт двигается по лунному грунту
  1. Пэкшот с логотипом игры и кнопкой PLAY FREE.
Референс
Тип креатива: 3D+2D
Хронометраж: 15-30 sec

Translation:
Dominations_007
Idea: Changing of eras, as in the famous CG Challenge and the top-performing of the 1st pack.
Hypothesis: Using a well-known gamedev approach with more than 7.5 million views as a reference and benchmark for creatives, we check the response from the target audience. Since we are adapting the events in the scenes to the game theme, this should have a good effect on performance. Also, this creative is a modified version of the top creative from the first RUN pack, which has already given some positive results.
Plot:
Using both client and stock characters and locations, we show how the character walks constantly from left to right and carries some kind of load.
The eras are indicated at the bottom of the creative.
At the top of the creative, use the text - Can you go through all the eras of Dominations?
We add details to the creative - the load that’s being carried should reflect the complexity of each particular era.
  1. We show the Stone Age:
Stonehenge is in the background,
the main character is a caveman who is dragging a huge stone to build a house;
the environment is appropriate to the era.
  1. We show the Industrial Age:
the Eiffel Tower is in the background;
we show the main character - a soldier in a helmet, dragging a cannon on wheels or a heavy backpack behind them;
possible encirclement of France under Napoleon.
  1. We show the Space Age:
a spaceship is in the background;
we show a scene on the moon where an astronaut steps onto the surface.
  1. Packshot with game logo and a PLAY FREE button.
Reference
Type: 3D+2D
Timing: 15-30 sec

The quick brown fox jumps over the lazy dog
Buffalo buffalo Buffalo buffalo buffalo buffalo Buffalo buffalo
James, while John had had "had", had had "had had"; "had had" had had a better effect on the teacher
A ship-shipping ship shipping shipping ships
That that exists exists in that that that that exists exists in
When you wait for the waiter, do you not become the waiter
Brief:
An AI/ML development company requested a translation for a short-form article describing one of the applications of their technology. Russian to English.

Original:
Задача: Сегодня машинное обучение — безусловный лидер в области computer vision, однако у нынешних моделей есть ряд ограничений, значительно сужающих область их применения. Для обучения классических генераторов и классификаторов требуются большие объемы размеченных данных для каждого класса изображений, а также подбор наиболее оптимальной архитектуры для конкретной задачи. Хорошим подходом для решения таких проблем является zero-shot learning — “обучение без обучения” — при котором модель изначально предобучается на большом датасете и после этого не требует дообучения на классах, которых в этом датасете не было. Задача состоит в разработке моделей такого типа, которые смогут качественно классифицировать и генерировать изображения.

Решение: CLIP — это композиция нейронных сетей, которая очень точно сопоставляет изображения с их текстовыми описаниями. В отличие от других классификаторов, CLIP не требует дообучения на новых датасетах: для классификации любого объекта достаточно подать на вход список классов, из которых нужно выбрать правильный.

Под капотом CLIP содержит две нейросети — Image Encoder (IE) и Text Encoder (TE). Первая принимает изображение, вторая — текст, обе возвращают векторные репрезентации входных данных. Для согласования размерностей их результатов и к IE и к TE добавляется слой линейного преобразования. В качестве IE авторы советуют использовать ResNet или VisionTransformer, в качестве TE — CBOW.

Для предобучения используются 400 млн. пар вида (изображение, текст), которые подаются на вход IE и TE. Затем считается матрица, элементом (i, j) которой является cosine similarity от нормализованной векторной репрезентации i-того изображения и j-того текстового описания. Таким образом, правильные пары окажутся на главной диагонали. В конце, с помощью минимизации перекрестной энтропии по каждой вертикали и горизонтали полученной матрицы мы максимизируем ее значения на главной диагонали.

Теперь, когда CLIP обучена, можно использовать ее для классификации изображений из любого набора классов — достаточно подать этот набор классов, представленных в виде описаний, в TE, а изображение в IE, и посмотреть, с репрезентацией какого класса cosine similarity изображения дает наибольшее значение.

Применение и перспективы: Изначально CLIP была представлена в связке с DALL-E — генератором изображений по их текстовому описанию. В ней она используется для отбора наилучших результатов. Более того, CLIP можно использовать и с классическими GAN’ами — например, с VQGAN. Для повышения качества результатов можно использовать несколько CLIP-моделей, как например, в этом colab.

Translation:
Goal: These days, machine learning is the undisputed leader in the field of computer vision. However, current models have a number of limitations that significantly narrow the scope of their application. To train classical generators and classifiers, large amounts of labeled data are required for each class of images, as well as the selection of the most optimal architecture for a specific task. A good approach to solving such problems is zero-shot learning, or “learning without training.” With this method, the model is initially pre-trained on a large dataset so that afterwards it does not require additional training on classes that were not in the initial dataset. The challenge is to develop this type of model that can classify and generate images in a quality manner.

Solution: CLIP is a composition of neural networks that very accurately matches images with their textual descriptions. Unlike other classifiers, CLIP does not require additional training on new datasets: to classify any object, one simply inputs a list of classes from which the correct one must be selected.
Under the hood, CLIP contains two neural networks - Image Encoder (IE) and Text Encoder (TE). The first takes an image, the second takes text, both of which return vector representations of the input. To match the dimensions of their results, a linear transformation layer is added to both IE and TE. For IE, the authors advise using ResNet or VisionTransformer, for TE - CBOW.

For pre-training, 400 million pairs of the form (image, text) are used, which are fed to the input of IE and TE. Then a matrix is ​​considered, the element (i, j) of which is the cosine similarity from the normalized vector representation of the “i”-th image and the “j”-th textual description. Thus, the correct pairs will end up on the main diagonal. Finally, by minimizing the cross-entropy along each vertical and horizontal axis of the resulting matrix, we maximize its values ​​on the main diagonal.

Now that CLIP has been trained, you can use it to classify images from any set of classes - simply submit this set of classes, presented as descriptions, to TE, and the image to IE, and see which class represents the cosine similarity of the image with the greatest value.

Potential applications: Initially, CLIP was presented in conjunction with DALL-E - a generator of images according to their text description. This technology is used to select the best results. Moreover, CLIP can be used with classic GANs - for example, with VQGAN. Several CLIP models can be used to improve the quality of the results, such as in this collab.
The quick brown fox jumps over the lazy dog
Buffalo buffalo Buffalo buffalo buffalo buffalo Buffalo buffalo
James, while John had had "had", had had "had had"; "had had" had had a better effect on the teacher
A ship-shipping ship shipping shipping ships
That that exists exists in that that that that exists exists in
When you wait for the waiter, do you not become the waiter
Brief:
A service specializing in user acquisition requested a translation for the content on their new website. Included is an excerpt. Russian to English.

Original:
Отключение IDFA было шоком для рынка. Много лет рекламные технологии развивались шаг за шагом, позволяя компаниям зарабатывать, а пользователям видеть релевантную рекламу. В 2021 году рынок отбросило назад. Давайте рассмотрим ситуацию детальнее.

Что мы имеем на сегодняшний день?

Начиная с iOS 14.5 (April 2021) Apple сделала ограничение отслеживания рекламы включенным по умолчанию;
iOS apps & games marketing is still “broken”after iOS 14.5;
User acquisition on iOS suffers without IDFA-targeting;
70%-80% traffic on iOS is Limited Ad Tracking (LAT On). It is impossible to gain the strong UA performance and positive ROAS with an audience targeting;
Look-a-like, ретаргетинг и узкий таргетинг не работает для non-IDFA;
Google is going the same way with its Android advertising ID.

Да, работать стало сложнее. IDFA это удобный инструмент, но закупка трафика существовала до него и будет существовать и после. Также следует отметить, что переломный момент не произошел в один день. Apple анонсировали новые условия приватности еще в 2020 году. Уже в это время рекламные сети начали первые попытки адаптации алгоритмов для работы с LAT-трафиком, началась подготовка. Некоторым игрокам удалось выстроить новые рекламные стратегии, но в целом рынок понес значительный урон. Рекламные сети оказались не такими гибкими, как ожидалось. Многие игроки прекратили существовании, другие объединились. Рынок очень изменился.

Мы увидели возможности в этой ситуации и решили создать платформу (DSP - Demand Side Platform), которая изначально рассчитана для работы с non-IDFA трафиком. Это амбициозная задача, но сегодня мы видим результаты работы, их также оценили наши первые клиенты. Мы создали новую технологию со 100% фокусом на non-IDFA трафик, основываясь на многолетнем опыте и мощной системе машинного обучения. Перформанс рекламных кампаний в [redacted] не зависит от доступа к данным IDFA. В непростых условиях мы создали актуальный продукт и мы рады поделиться с вами нашими уникальным технологическим решением для роста вашего приложения.

Translation:
The shutdown of IDFA was a shock to the market. For many years, advertising technologies have been evolving step by step, allowing companies to earn money and users to see relevant ads. In 2021, the market took a step backwards. Let's look at this in more detail.

What’s the situation currently look like?

Starting with iOS 14.5 (April 2021), Apple has made Limit Ad Tracking enabled by default;
iOS apps & games marketing is still “broken” after iOS 14.5;
User acquisition on iOS suffers from the lack of IDFA-targeting;
70%-80% of traffic on iOS is Limited Ad Tracking (LAT On). It’s virtually impossible to get a strong UA performance and a positive ROAS from the target audience;
Look-a-likes, re-targeting, and narrow targeting don't work for non-IDFAs;
Google is going the same way with its Android “advertising ID”.

So clearly, things have gotten more difficult. IDFA is a convenient tool, sure, but traffic buying existed before it and will continue to exist after. It should also be noted that the tipping point did not occur in one day. Apple announced their new privacy terms back in 2020. Even at that time, advertising networks began preparations to make the first attempts to adapt algorithms to work with LAT traffic. Some players managed to build new advertising strategies, but in general the market suffered significant damage. Ad networks were not as flexible as expected. Many players have ceased to exist, others merged, and as a result, the market looks a lot different these days.

We saw opportunities in this situation and decided to create a platform (DSP - Demand Side Platform), which was designed specifically to work with non-IDFA traffic. This is an ambitious task, but today we see the results of the work. Our efforts were also appreciated by our early clients. We created a new technology with a 100% focus on non-IDFA traffic, based on many years of experience and a powerful machine learning system. The performance of advertising campaigns from [redacted] do not depend on access to IDFA data. In these turbulent times, we’ve created a relevant product. We’re happy to share our unique technological solution to help your app grow.
The quick brown fox jumps over the lazy dog
Buffalo buffalo Buffalo buffalo buffalo buffalo Buffalo buffalo
James, while John had had "had", had had "had had"; "had had" had had a better effect on the teacher
A ship-shipping ship shipping shipping ships
That that exists exists in that that that that exists exists in
When you wait for the waiter, do you not become the waiter
Let me help you say what you want to say.
Fill in your contact info below for a free consultation. No job is too small.
contact@dls-english.com

English, made to order.
All photos, images, logos, and fonts are either original works, used with permission of the company/individual, or free to use (unsplash.com, flaticon.com).