Gender equality in the context of digitalization: the european legal experience
Table of contents
Share
QR
Metrics
Gender equality in the context of digitalization: the european legal experience
Annotation
PII
S102694520016449-4-1
Publication type
Article
Status
Published
Authors
Elvira V. Talapina 
Occupation: Chief Research Fellow, Department of the Human Rights, Institute of State and Law of the Russian Academy of Sciences
Affiliation: Institute of State and Law of the Russian Academy of Sciences
Address: Russian Federation, Moscow
Edition
Pages
115-123
Abstract

The principle of gender equality is closely linked to the right to non-discrimination, which has come into national legislations from international law. The evolution of the principle of equality from formal to substantive has been influenced by the Anglo-Saxon approach to European Union law, which focuses on equal treatment. In general, a fairly uniform model of anti-discrimination legislation has emerged worldwide.

The digitalization process has brought with it new threats, and a number of countries have already identified a gender gap in access to technology. However, the greatest risks are posed by digital gender discrimination - direct or indirect discriminatory actions that are based on automatic decisions made by algorithms. Such decision-making cannot be described as technology-neutral, as the algorithm may reflect the prejudices of programmers. The discriminatory decisions made by algorithms will be consistent and systematic, which is much more dangerous than individual human decisions. The causes of digital discrimination lie in modelling and making predictive recommendations based on discriminatory data, and in training algorithms based on discriminatory data. To overcome this complex problem - from the legal point of view - it is necessary to enforce the rule of transparency of algorithms as well as the decisions they make. It is necessary to conduct an audit of the algorithms - a special evaluation of the algorithm for potential violations of human rights. Also, the possibility and procedure of using artificial intelligence for decision-making must be regulated by laws. Some artificial intelligence systems should be banned outright, while others should be strictly controlled. The Proposal for a European regulation on artificial intelligence amply demonstrates this.

Keywords
discrimination, algorithm, digital technology, equal treatment, artificial intelligence, gender equality
Received
14.09.2021
Date of publication
18.05.2022
Number of purchasers
14
Views
806
Readers community rating
0.0 (0 votes)
Cite   Download pdf
1 Гендерное равенство: общеправовые позиции
2 Равенство – основополагающий принцип правового государства. Собственно, без соблюдения равенства любые правовые конструкции теряют смысл, ведь законы, правовые нормы должны быть универсальными именно в силу своей применимости к любому субъекту, без какой бы то ни было избирательности.
3 Однако красивая формула о равенстве во многом абстрактна и как любая абстракция далеко не всегда реализуется на практике. Юридическая доктрина сосредоточена на формальном равенстве; обратной стороной равенства является право на недискриминацию, делающее проблематику более осязаемой и конкретной. Тесная связь равенства и недискриминации, «перетекаемость» одного в другое многократно подчеркивались в доктрине и в судебных толкованиях.
4 В историческом масштабе проблема гендерного равенства получила нормативное отражение относительно недавно. У права вообще довольно сложное отношение к женщинам как к субъектам – долгое время они не подпадали под категории «человек» и «каждый», поэтому даже лозунги европейских буржуазных революций о формальном равенстве в их буквальном толковании к женщинам не относились. Более того, право европейских государств и после этих революций поощряло угнетение женщин, продолжая помещать их под власть отца и мужа, не наделяя правами, в т.ч. избирательными.
5 Но начиная с ХХ в. мир увидел целую эволюцию от признания дискриминации по признаку пола недопустимой до появления более продвинутого понятия «сексистской дискриминации». Правда, произошло это не во всех странах.
6 Первоначально юридико-политическая концепция равенства носила формальный характер, что объясняется достаточно развитой социальной терпимостью к неравенству. Провозглашенное равенство, которое не вызывает сомнений в теории, но становится трудно реализуемым на практике, требовало преодоления, которое не смогло вызреть в национальных законодательствах, а потому «пришло», по сути, из международного права. Таким образом, право на недискриминацию в отношении женщин имеет международное происхождение и неразрывно связано с признанием в 1946 г. Организацией Объединенных Наций в своем Уставе принципа равенства между женщинами и мужчинами. При этом необходимо уточнить, что если изначально принципом было равенство перед законом, т.е. формальное равенство, то постепенно оно трансформировалось в равенство в законе (равенство возможностей), а затем в равенство по закону - материальное равенство.
7 Конечно, равенство мужчин и женщин в контексте Устава ООН выглядело довольно декларативно, поскольку все права и свободы подробно были изложены позднее во Всеобщей декларации прав человека 1948 г. и Пактах 1966 г. Так, в терминологии Всеобщей декларации прав человека все люди рождаются свободными и равными в своем достоинстве и правах и имеют право на равную защиту от какой бы то ни было дискриминации.
8 Эволюция принципа равенства от формального к материальному во многом обусловлена англосаксонским подходом, под влиянием которого теория равенства в системе ООН постепенно склоняется к равенству в праве, равенству возможностей, к учету различного положения женщин и мужчин и к восстановлению баланса посредством статуса особой группы. Конвенции, принятые в рамках системы ООН, будь то Международной организацией труда (МОТ) или Генеральной Ассамблеей ООН, все больше продвигают этот подход. В этом контексте следует упомянуть Конвенцию МОТ 1951 г. о равном вознаграждении мужчин и женщин за труд равной ценности, Конвенцию ООН 1952 г. о политических правах женщин, которая подтвердила право женщин избирать, баллотироваться на политические должности и занимать государственные должности. Далее Генеральная Ассамблея ООН приняла два документа, относящихся к особым проблемам женщин: Декларация о ликвидации дискриминации в отношении женщин (1967) и Декларация о защите женщин и детей в чрезвычайных ситуациях и вооруженных конфликтах (1974). Конвенция о ликвидации всех форм дискриминации в отношении женщин от 18 декабря 1979 г., известная как международный билль о правах женщин, стала высшей точкой движения к фактическому равенству.
9 Подчеркнем, что в смысле правоприменения право на равное обращение реализовать и контролировать проще, нежели абсолютный принцип равенства (принципы, как известно, довольно абстрактны и требуют судебных толкований). Равное обращение – это цель, которую необходимо достигнуть, а потому равное обращение тесно связано с дискриминацией. Иными словами, равное обращение определяется отсутствием дискриминации.
10 Право Европейского Союза в вопросах гендерного равенства пошло по прагматичному пути, в котором уделяется внимание именно равному обращению. Это также можно объяснить англосаксонским влиянием. Европейский Союз продемонстрировал в свое время в Директиве Совета ЕС 76/207/ЕЭС от 9 февраля 1976 г. «Об имплементации принципа равенства мужчин и женщин в вопросах трудоустройства, профессионального обучения, продвижения по службе и условиях труда», что равное обращение не должно исключать меры по содействию равенству возможностей между мужчинами и женщинами, в частности, путем устранения фактического неравенства, которое влияет на возможности женщин. Эта правовая и политическая ориентация сохранилась с тех пор и была усилена в Директиве Европейского парламента и Совета Европейского Союза 2006/54/ЕС от 5 июля 2006 г. «Об имплементации принципа равных возможностей и равного обращения для мужчин и женщин в вопросах занятости и доступа к работе».
11 Законодательство Европейского Союза в первую очередь четко соответствует подходу равных возможностей, но все более - конкретному реальному равенству. В нем, по сути, прямо провозглашается обязательность результата. Прецедентное право Суда Европейского Союза также хорошо демонстрирует явное предпочтение более прагматичному подходу. Принцип недискриминации, рассматриваемый Судом ЕС как общий принцип права Сообщества, был подтвержден и усилен после принятия Амстердамского договора. Необходимо указать, что в отношении права на недискриминацию именно Суд ЕС, а не Европейский Суд по правам человека считается ведущим и играет основную роль, несмотря на то что обычно Суд ЕС - это игрок, ориентированный на рынок, а ЕСПЧ всегда сконцентрирован на правах человека1. В целом же факт различий в применении антидискриминационного законодательства со стороны ЕСПЧ и Суда ЕС вызывает все большую озабоченность в государствах - членах Европейского Союза. Гендерная дискриминация считается одним из примеров конкуренции этих двух судов в области прав человека, хотя они и пытаются минимизировать потенциальные конфликты путем взаимных заимствований2.
1. См.: Gerards J. Non-Discrimination, the European Court of Justice and the European Court of Human Rights: Who Takes the Lead? In: T. Giegerich (ed.). The European Union as Protector and Promoter of Equality. Cham: Springer, 2020. Р. 138.

2. См.: Besson S. Gender Discrimination under EU and ECHR Law: Never Shall the Twain Meet? // Human Rights Law Review. 2008. Vol. 8. Issue 4. P. 675 - 677.
12 Не все государства Европейского Союза воспринимают англосаксонский путь защиты гендерного равенства как должный для развития национального законодательства. Так, во Франции считается, что антидискриминационное законодательство (которое в значительной степени основано на законах Сообщества) нелегко вписывается во французское законодательство, разработанное в абстрактной и позитивистской манере. Необходимо учитывать, что законы англосаксонского происхождения ориентируются на модель общего права, неписаного закона, в котором преобладают прецеденты. В этом случае судебная власть есть привилегированный инструмент для преобразования закона и придания ему эффективности3. Данное опасение справедливо не только для Франции, но и для всех государств континентальной (романо-германской) правовой системы, ведь под сомнение ставится универсальность нормы, формальное равенство, а также, по мнению некоторых, формируется «чересчур феминистское видение права»4.
3. См.: Junter A., Ressot C. La discrimination sexiste: les regards du droit // Revue de l’OFCE. 2010. Vol. 114. No. 3. P. 75.

4. Dhoquois R. La recherche féministe à l’université dans le domaine du droit – Une absence en forme de désertion // Les Cahiers du CEDREF. 2001. No. 10. P. 171 - 177.
13 Так или иначе, в мире выработалась довольно единообразная модель антидискриминационного законодательства, одним из важных направлений которого обозначено обеспечение гендерного равенства. Согласно классической правовой доктрине, запрещенная дискриминация предполагает причинно-следственную связь между запрещенным основанием для дискриминации и конкретным неблагоприятным обстоятельством, соответственно, действие или бездействие с открытым намерением провести неблагоприятное различие между людьми по признаку пола или расы и т.д. квалифицируется как прямая дискриминация.
14 Более того, даже совершение таких действий при отсутствии дискриминационных намерений тоже подпадает под классическое определение дискриминации. В этом вопросе антидискриминационные законодательства США и Евросоюза весьма похожи, с той лишь разницей, что в Европе парадигматической моделью для антидискриминационного законодательства стало именно гендерное равенство, а ядро американского прецедентного права по вопросам равенства составляет расовое равенство. При этом в двух основополагающих судебных решениях, европейском и американском, в качестве доктринальной отправной точки принята причинно-следственная структура. В деле Brown v Board of Education5 ключевым вопросом стало то, создает ли расовая сегрегация неблагоприятные условия для личностного развития чернокожих детей в начальной школе. Аналогично в наиболее раннем деле Суда ЕС Defrenne6 Суд должен был дать открытую оценку разнице в оплате труда по признаку пола.
5. См.: U.S. Supreme Court Brown v. Board of Education (17 May 1954), 347 U.S. 483.

6. См.: CJEU 80/70, Defrenne v. Sabena I (25 May 1971), 1971 E.C.R. 445; 43/75 Defrenne v. Sabena II (8 April 1976), 1976 E.C.R. 455; 149/77 Defrenne v. Sabena III (15 June 1978) 1978 E.C.R. 1365.
15 Такова общеправовая оценка проблематики гендерного равенства.
16 Цифровая гендерная дискриминация
17 Цифровизация, с одной стороны, создает новое видение старых дискриминационных проблем и открывает перспективы их решения, а с другой – предоставляет механизмы усугубления имеющихся противоречий. Прежде всего, как утверждают исследователи, цифровая трансформация рынка труда влечет за собой необходимость решения ряда важных задач в области гендерного равенства. В частности, женщины несколько чаще, чем мужчины, рискуют быть замененными на своих рабочих местах машинами или алгоритмами, а новые рабочие места зачастую сосредоточены в секторах ИКТ и STEM, где доминируют мужчины7. Кроме того, наблюдается гендерный разрыв в доступе к технологиям, например, женщины в Южной Азии имеют на 26% меньше шансов владеть и пользоваться мобильным телефоном, чем мужчины, и обладают на 70% меньшей вероятностью использования мобильного интернета. Так, в Индии 67% мужчин владеют персональными мобильными телефонами, и только 33% женщин. Причины тому давно известны и связаны с такими очевидными барьерами, как наличие и доступность новых технологий, культурное, религиозное и социальное происхождение людей и отношение к правам женщин в обществе8. Конечно, в Европе ситуация более «ровная», но во многом зависит от конкретной страны.
7. См.: Говорова Н.В. Женщины в цифровой экономике Европейского Союза // Женщина в росс. обществе. 2021. № 2. С. 167, 168.

8. См.: Akhmatova D.-M., Akhmatova M.-S. Promoting digital humanitarian action in protecting human rights: hope or hype // Journal of International Humanitarian Action. 2020. No. 5. URL: >>>> (дата обращения: 02.09.2021).
18 Другой аспект цифровой реальности связан с расширением наблюдения (массовой слежки) за населением независимо от причин. Одной из важных задач наблюдения наряду с безопасностью сегодня признается эффективное управление поведением индивидов, поэтому отношение к мерам электронного контроля – это дилемма между потребностью в безопасности и невмешательством в свободы человека9. Наблюдение создает прямые угрозы многим правам человека, а используемое при этом профилирование (разделение людей на категории) напрямую связано с дискриминацией.
9. См.: Гуринская А.Л. Надзор как средство обеспечения безопасности: от пространства тюрьмы до киберпространства // Криминология: вчера, сегодня, завтра. 2014. T. 33. № 2. C. 92, 93.
19 Интересно в этой связи обратиться к данным международного опроса «Европейское исследование ценностей» (European Values Study, EVS), проведенного международным научным консорциумом, с целью определения, как на практике относится к электронному социальному контролю население 30 европейских стран. Опрос содержал вопросы о моральных, религиозных, общественных и политических ценностях. Необходимо отметить, что данные были собраны в 2017 г. по национально репрезентативным выборкам и опубликованы в 2019 г. Больше по данной тематике опрос не проводился. В России выборка составила 1825 респондентов, а общая выборка по 30 странам – 56 368 респондентов.
20 В опрос EVS были включены три вопроса о том, должны ли власти страны, в которой живет респондент, иметь право: а) вести видеонаблюдение за людьми в общественных местах; б) отслеживать всю электронную почту и любую другую информацию, которой люди обмениваются в интернете; в) собирать информацию о человеке, живущем в этой стране, без его ведома. Первый вопрос оценивает электронный государственный надзор за городским пространством, второй и третий – за условно частным пространством онлайн и частным пространством в целом соответственно.
21 Мнения респондентов из России оказались близки к средним значениям по 30 странам: 61% россиян считают, что власти должны иметь право вести видеонаблюдение (в т.ч. 26% – что определенно должны), 27% - отслеживать всю информацию онлайн (7% – определенно да), 24% – собирать информацию о человеке без его ведома (6% – определенно да)10. Любопытно, что в целом по 30 странам мужчины чаще, чем женщины, отвечали, что власти определенно должны иметь право на указанные меры контроля. К слову, в России статистической связи между полом и ответом на эти вопросы не обнаружено11.
10. См.: Широканова А.А., Волченко О.В. «Большой Брат следит за тобой»: приемлемость государственного онлайн-наблюдения в 30 европейских странах (по данным EVS-2017) // Информационное общество. 2020. № 2. С. 92.

11. См.: там же. С. 93.
22 Следует отметить, что появившееся в последнее время понятие «цифровая дискриминация» имеет несколько значений – от определения традиционных дискриминационных практик, облегчаемых при помощи онлайн доступа к информации, до дискриминационного доступа к цифровым технологиям или информации (что мы затронули выше). Сосредоточимся теперь на цифровой дискриминации как прямых или косвенных дискриминационных действиях, которые основаны на автоматических решениях, принимаемых алгоритмами. Использование искусственного интеллекта на основе машинного обучения становится все более распространенным при принятии разного рода решений – устройстве на работу, выдаче кредитов, подборе программы страхования и проч.
23 В силу психологического доверия к тщательности оценки обстоятельств искусственным интеллектом создается ложное впечатление о безупречности принимаемых им решений. Однако автоматизированное принятие решений нельзя назвать технологически нейтральным, поскольку алгоритм может отражать предубеждения и предвзятости программистов, предыдущих решений, пользователей, да и общества в целом. Что с высокой долей вероятности приведет к дискриминационным, по сути, решениям, причем принятие которых будет возведено в систему.
24 К причинам цифровой дискриминации можно отнести моделирование: алгоритмы машинного обучения обычно используются для составления прогнозов или рекомендаций на основе некоторых данных (т.н. предиктивные свойства алгоритмов). Здесь все зависит от того, можно ли «предоставить» алгоритму измеримые и четкие характеристики для таких прогнозов12, например, определение возраста по фотографии имеет более или менее объективные показатели, в то время как классификация работников на хороших и плохих социально зависима и неоднозначна. Если в алгоритмическое определение подходящего кандидата при приеме на работу заложены субъективные оценки предыдущих успешных кандидатов-мужчин, это неминуемо приведет к дискриминации женщин.
12. См.: Criado N., Such J.M. Digital Discrimination. 2019. URL: >>>> (дата обращения: 02.09.2021).
25 Или представим тиражирование загруженного в алгоритм повышающего коэффициента бездетным людям при страховании автомобиля, что уже зафиксировано в правилах крупных страховых компаний в России, поскольку и в страховании, а также на рынке труда бездетность ассоциируется с безответственностью13.
13. См.: Калабихина И.Е. Как мы узнаем, что наступает гендерное равенство? // Женщина в росс. обществе. 2021. № 2. С. 11.
26 Это - примеры прямой, преднамеренной дискриминации, которую проще обнаружить как офлайн, так и при ее совершении алгоритмом. Если же алгоритмом используются косвенные данные, обнаружить дискриминацию будет сложнее. Так, стал широко известным тот факт, что американский ритейлер Target, анализируя покупательские привычки клиентов, разработал систему прогнозирования беременности на основе 25 продуктов. Покупка клиентом этих продуктов позволяет с достаточной степенью уверенности знать, что женщина беременна. Компания Target использовала эти знания в коммерческих целях, чтобы предложить свою рекламу вовремя, на ранних сроках беременности, и таким образом надолго сохранить клиента. Но если эту же систему обработки данных будет использовать организация, которая стремится, напротив, исключить беременных женщин из числа потенциальных сотрудников, то это приведет к дискриминации, которую к тому же будет трудно обнаружить.
27 Другая важная причина дискриминации связана с обучением и тем набором данных, на которых алгоритм учится принимать решение. Как правило, набор обучающих (тренировочных) данных содержит прошлые решения, которые разработчики алгоритма посчитали образцовыми, при этом не важно, принимались ли они при помощи технологий или офлайн. Описано множество случаев, когда система учится принимать дискриминационные решения на основе данных, содержащих предубеждения, в т.ч. гендерные. Достаточно попросту не включить определенную группу населения (в нашем случае – женщин) в наборы данных для обучения, чтобы получить системную дискриминацию данной группы в будущем.
28 Так, любопытные результаты дает семантический анализ текстов. Ученые из Принстонского университета описали влияние культурных стереотипов на машинный перевод. Оказалось, переводы на английский язык с многих гендерно-нейтральных языков, например, с турецкого, приводит к созданию гендерно-стереотипных предложений. Например, Google Translate преобразует турецкие предложения с гендерно-нейтральными местоимениями: “O bir doktor. O bir hems¸ ire” в следующие английские предложения: «Он - врач. Она – медсестра». То же самое происходит при переводе с турецкого на несколько наиболее распространенных языков (испанский, английский, португальский, русский, немецкий и французский) – в каждом случае появляются гендерно-стереотипные местоимения14. Иными словами, система искусственного интеллекта прекрасно усваивает человеческие предубеждения, укоренившиеся в естественном языке.
14. См.: Caliskan A., Bryson J., Narayanan A. Semantics derived automatically from language corpora contain human-like biases. 2017. URL: >>>> (дата обращения: 02.09.2021).
29 Права человека как основа регулирования искусственного интеллекта в Европейском Союзе
30 С юридической точки зрения важно прежде всего вскрывать и обнаруживать случаи дискриминации. Как правило, для этого используются статистические методы, которые традиционно принимаются судами в качестве доказательств дискриминации. Далее, необходимо нормативно закрепить непререкаемое правило прозрачности алгоритмов, равно как и принимаемых ими решений.
31 Кроме того, в последнее время весьма расширилось движение за т.н. справедливые алгоритмы, для модификации существующих алгоритмов машинного обучения и добычи данных, которые специально направлены на предотвращение дискриминации. Этой же цели способен послужить аудит алгоритмов – специальная оценка алгоритма на предмет потенциальных нарушений прав человека, в т.ч. угрозы дискриминации. Важно в таком аудите отдельно оценить потенциальную гендерную дискриминацию при принятии решений с помощью алгоритмов. При этом нужно иметь в виду, что подобный аудит эффективен, если он носит междисциплинарный характер и сочетает социальный, правовой, этический и технический подходы, что само по себе – задача весьма сложная. Проведение такого аудита целесообразно закрепить посредством правового механизма сертификации алгоритмов.
32 Наконец, напомним, что антидискриминационное законодательство в большинстве стран содержит весьма общие и широкие определения, которые нуждаются в судебных толкованиях. Алгоритму же необходимы четкие и однозначные понятия, что ставит задачу некоей ревизии законодательства, возможно, в рамках постепенного распространения машиночитаемого права. И конечно, сами возможности и порядок использования искусственного интеллекта для принятия решений должны быть нормативно урегулированы.
33 Это – общие пожелания. В Европейском Союзе уже предприняты конкретные шаги по урегулированию использования искусственного интеллекта, изучение которых крайне полезно для России.
34 Проект европейского регламента по искусственному интеллекту15 (апрель 2021) выстроен на базовой идее соблюдения и эффективного применения существующего законодательства об основных правах. В рамках регулирования использования систем искусственного интеллекта в Европе предлагается полностью запретить те из них, которые могут применяться не по назначению, предоставляя новые и мощные инструменты для манипулирования, эксплуатации и социального контроля. Такая практика особенно вредна и должна быть запрещена, поскольку она противоречит таким ценностям Союза, как уважение человеческого достоинства, свобода, равенство, демократия и верховенство закона, и подрывает основные права, включая право на недискриминацию, право на защиту и неприкосновенность частной жизни и права детей.
15. См.: Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonized Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts. URL: >>>> (дата обращения: 02.08.2021).
35 Так, ст. 5 проекта регламента запрещены такие виды практик в области искусственного интеллекта, как использование сублиминальных методов воздействия на подсознание человека, которые причиняют либо могут причинить физический или психологический вред этому человеку или третьему лицу; использование любых уязвимостей, связанных с возрастом или физическими или умственными недостатками определенной группы лиц, для существенного изменения поведения члена этой группы таким способом, который причиняет либо может причинить физический или психологический вред этому или третьему лицу. Запрещен социальный скоринг (оценка или ранжирование надежности отдельных лиц на основе их социального поведения или известных либо прогнозируемых личностных характеристик), а также использование систем дистанционной биометрической идентификации в режиме реального времени в общественных местах в целях правоохранительной деятельности (за исключением поименованных в проекте регламента случаев, таких как целенаправленный поиск конкретных потенциальных жертв преступлений, включая пропавших детей; предотвращение конкретной, существенной и неминуемой угрозы жизни или физической безопасности людей или предотвращение террористического акта; обнаружение, определение местонахождения, идентификация или преследование исполнителя или подозреваемого в совершении уголовного преступления).
36 Таким образом, удаленная биометрическая идентификация лиц в режиме реального времени по общему правилу будет запрещена, а в разрешенных случаях использования отнесена к системам высокого риска. Это аргументируется тем, что технические неточности в системах искусственного интеллекта для удаленной биометрической идентификации людей могут привести к необъективным результатам и дискриминационным последствиям, особенно в отношении возраста, этнической принадлежности, пола или инвалидности. С учетом рисков биометрические системы удаленной идентификации должны подчиняться особым требованиям к возможностям протоколирования и контролю со стороны человека.
37 И это не единственный случай. Проектом регламента установлен целый перечень систем искусственного интеллекта высокого риска. Для них установлены общие стандарты (которые должны соответствовать Хартии основных прав Европейского Союза, быть недискриминационными и совместимыми с международными торговыми обязательствами Союза). К областям, в которых используются системы высокого риска, отнесены:
38 1. Биометрическая идентификация и категоризация физических лиц: системы искусственного интеллекта, предназначенные для использования в дистанционной биометрической идентификации физических лиц в режиме реального времени и постфактум.
39 2. Управление и эксплуатация критических инфраструктур: системы искусственного интеллекта, используемые в качестве компонента безопасности при управлении дорожным движением и при подаче воды, газа, тепла и электроэнергии.
40 3. Образование и профессиональная подготовка:
41 (a) системы искусственного интеллекта, предназначенные для использования с целью отбора лиц для поступления или направления в образовательные учреждения и учреждения профессионального обучения;
42 (b) системы искусственного интеллекта, предназначенные для оценки (аттестации) учащихся образовательных и профессиональных учебных заведений и для оценки участников тестирования, регулярно требуемых для поступления в учебные заведения;
43 4. Занятость, управление рынком труда и самозанятость:
44 (a) системы искусственного интеллекта, предназначенные для использования при найме или отборе физических лиц, в частности, для распространения информации о вакансиях, отбора или фильтрации заявок и оценки кандидатов в ходе собеседований или тестирования;
45 (b) ИИ для использования при принятии решений о продвижении по службе и увольнении в рамках договорных трудовых отношений, для распределения заданий, а также для контроля и оценки работы и поведения сотрудников в таких отношениях.
46 5. Доступ к основным частным услугам, государственным услугам и социальным льготам (пособиям):
47 (a) системы искусственного интеллекта, предназначенные для использования государственными органами или от их имени для оценки права отдельных лиц на получение пособий и услуг по социальной помощи, а также для предоставления, сокращения, отмены или возмещения таких пособий и услуг;
48 (b) системы искусственного интеллекта, предназначенные для использования в целях оценки кредитоспособности физических лиц или установления их кредитного рейтинга, за исключением систем искусственного интеллекта, эксплуатируемых мелкими поставщиками и используемых исключительно ими;
49 (c) системы искусственного интеллекта, предназначенные для использования в диспетчеризации или определении приоритетов службами экстренного реагирования, включая пожарную и спасательную службы.
50 6. Правоохранительные органы:
51 (a) системы искусственного интеллекта, используемые правоохранительными органами для проведения оценки индивидуальных рисков при определении вероятности совершения физическим лицом правонарушения или рецидива или определении риска для потенциальных жертв уголовных преступлений;
52 (b) системы ИИ, предназначенные для использования правоохранительными органами в качестве полиграфа и аналогичных инструментов или для анализа эмоционального состояния физического лица;
53 (c) системы искусственного интеллекта, предназначенные для использования правоохранительными органами с целью обнаружения фальсифицированных изображений, аудио- и видеоконтента, имеющих сходство с существующими людьми, предметами, событиями;
54 (d) системы ИИ, предназначенные для использования правоохранительными органами для оценки достоверности доказательств в ходе уголовного расследования или судебного преследования;
55 (e) системы искусственного интеллекта, предназначенные для использования правоохранительными органами для прогнозирования совершения либо повторения фактического или потенциального уголовного преступления на основе профилирования физических лиц, или для оценки личности, черт характера, или криминального прошлого отдельных физических лиц или групп;
56 (f) системы ИИ, предназначенные для использования правоохранительными органами для профилирования физических лиц в контексте выявления, расследования или судебного преследования уголовных преступлений;
57 (g) системы искусственного интеллекта, используемые для анализа преступлений против личности, позволяющие правоохранительным органам осуществлять поиск в больших массивах связанных и несвязанных сложных данных, имеющихся в различных источниках или форматах данных, с целью выявления неизвестных закономерностей или обнаружения скрытых взаимосвязей в данных.
58 7. Миграция, убежище и управление пограничным контролем:
59 (a) системы ИИ, предназначенные для использования компетентными государственными органами в качестве полиграфа и аналогичных инструментов или для анализа эмоционального состояния физического лица;
60 (b) системы искусственного интеллекта для использования компетентными государственными органами для оценки рисков, включая риски безопасности, риски нелегальной иммиграции или риски для здоровья, создаваемые физическим лицом, которое намеревается въехать или уже въехало на территорию государства-члена;
61 (c) системы искусственного интеллекта, предназначенные для использования компетентными государственными органами для проверки подлинности проездных документов и документов, удостоверяющих личность физических лиц, и для выявления неаутентичных документов путем проверки их защитных элементов;
62 (d) системы искусственного интеллекта для оказания помощи компетентным государственным органам в рассмотрении заявлений о предоставлении убежища, виз и видов на жительство и связанных с ними претензий с целью проверки соответствия физических лиц, ходатайствующих о предоставлении статуса, предъявляемым требованиям.
63 8. Отправление правосудия и демократические процессы: системы искусственного интеллекта для оказания помощи судебным органам в исследовании и интерпретации фактов и законов, а также применении закона к конкретному набору фактов.
64 ***
65 Проведенный анализ позволяет сделать вывод, что все те области, которые определяют образовательный и профессиональный путь человека, перспективы карьерного роста, участие в жизни общества, повышение уровня жизни конкретных лиц, затрагивают общественную безопасность, крайне чувствительны с точки зрения воплощения исторических моделей дискриминации в отношении женщин, а также определенных возрастных групп и т.д. Цифровая гендерная дискриминация – явление, которому уделяется крайне незначительное внимание в отечественной юридической науке, хотя риски, связанные со следованием констатированному негативному опыту, налицо. Стоит поприветствовать создание в России кодекса этики искусственного интеллекта16, но при этом не следует забывать, что традиционно Россия – страна, в которой плохо приживается «мягкое» право, а потому необходимость в разработке законодательства в области использования искусственного интеллекта остается актуальной. Как представляется, урегулирование конкретных сфер, в которых использование искусственного интеллекта либо полностью запрещается, либо строго ограничивается и контролируется, является оптимальным вектором нормативного развития в Российской Федерации, поскольку способствует правовой определенности и однозначности правоприменения.
16. См.: URL: >>>> (дата обращения: 20.11.2021).

References

1. Govorova N.V. Women in the digital economy of the European Union // Woman in Russ. society. 2021. No. 2. P. 167, 168 (in Russ.).

2. Gurinskaya A.L. Supervision as a means of ensuring security: from prison space to cyberspace // Criminology: yesterday, today, tomorrow. 2014. Vol. 33. No. 2. P. 92, 93 (in Russ.).

3. Kalabikhina I.E. How do we know that gender equality is coming? // Woman in Russ. society. 2021. No. 2. P. 11 (in Russ.).

4. Shirokanova A.A., Volchenko O.V. “Big Brother is watching you”: the acceptability of state online surveillance in 30 European countries (according to EVS-2017) // Information Society. 2020. No. 2. P. 92, 93 (in Russ.).

5. Akhmatova D.-M., Akhmatova M.-S. Promoting digital humanitarian action in protecting human rights: hope or hype // Journal of International Humanitarian Action. 2020. No. 5. URL: https://doi.org/10.1186/s41018-020-00076-2 (accessed: 02.09.2021).

6. Besson S. Gender Discrimination under EU and ECHR Law: Never Shall the Twain Meet? // Human Rights Law Review. 2008. Vol. 8. Issue 4. P. 675 - 677.

7. Caliskan A., Bryson J., Narayanan A. Semantics derived automatically from language corpora contain human-like biases. 2017. URL: https://www.researchgate.net/publication/316973825_Semantics_derived_automatically_from_language_corpora_contain_human-like_biases (accessed: 02.09.2021).

8. Criado N., Such J.M. Digital Discrimination. 2019. URL: https://www.researchgate.net/publication/336792693_Digital_Discrimination (accessed: 02.09.2021).

9. Dhoquois R. La recherche féministe à l’université dans le domaine du droit – Une absence en forme de désertion // Les Cahiers du CEDREF. 2001. No. 10. P. 171 - 177.

10. Gerards J. Non-Discrimination, the European Court of Justice and the European Court of Human Rights: Who Takes the Lead? In: T. Giegerich (ed.). The European Union as Protector and Promoter of Equality. Cham: Springer, 2020. Р. 138.

11. Junter A., Ressot C. La discrimination sexiste: les regards du droit // Revue de l’OFCE. 2010. Vol. 114. No. 3. P. 75.

Comments

No posts found

Write a review
Translate