Лингвистическая сказка приметы существительного


Лингвистическая сказка "Имя существительное".

Сказка про «ИМЯ СУЩЕСТВИТЕЛЬНОЕ » ГАНДОЯН КАРИНА 5 Г

Давным-давно в Тридевятом царстве Тридесятом государстве Морфология случилась эта история. Жили в царстве части речи. Жили они очень дружно, весело, друг друга не обижали , а в трудную минуту всегда спешили на помощь. Каждая часть речи была на своём месте , выполняла свою функцию. Имя существительное очень любило порядок. С утра раздавались её команды : « По родам становись !» И выстраивались в одну колонну мама , парта , вода , радость. Во вторую - дом , хлеб , папа , смех. В третью - солнце , небо , утро, счастье. Только построились , новая команда: «По склонениям разбиться! Разделиться по числам ! По падежам !!!»

И вот однажды пришла в голову Имени Существительному такая мысль : «А ведь я главнее всех в царстве. Я называю предметы , чувства, указываю прилагательным ,в каком роде, числе и падеже им стоять рядом со мной, командую родом и числом! А ещё в предложении я очень часто бываю подлежащим, а это-главный член предложения! Загордилось Существительное, стало обижать другие части речи. Долго остальные Части Речи терпели, ведь были они добрыми и дружными. Но в конце концов не выдержали и прогнали Имя Существительное из царства.

-Ничего , -ничего, сказало имя существительное . Через несколько дней вы меня обратно позовете . Но прошло несколько дней а существительное не кто не звал обратно. Через некоторое время до него дошли слухи, что в царстве обходятся без него заменили его- местоимением. Оно правда не называет предметы ,а только указывает на них , но также как и существительное указывает прилагательному и глаголу, в каком роде, числе им стоять. И вроде бы всё у них хорошо ,но как-то грустно стало в королевстве , части речи переживали за друга. Существительное поняло, что и ему было плохо без друзей. Вернулось оно в королевство , попросило прощения у всех. Части речи с радостью приняли его назад. С тех пор в Тридевятом царстве Тридесятом государстве царит мир и порядок.

Это изображение, автор: Неизвестный автор, лицензия: CC BY-NC

Лингвистические особенности

· Документация по использованию spaCy

Интеллектуальная обработка необработанного текста является сложной задачей: большинство слов встречаются редко, и это обычно для слов, которые выглядят совершенно по-разному, означает почти одно и то же. Одни и те же слова в разном порядке могут означать совсем другое. Даже разделение текста на полезные словесные единицы может быть трудным для многих языки. Хотя некоторые проблемы можно решить, начав только с сырых символов, обычно лучше использовать лингвистические знания, чтобы добавить полезные Информация.Именно для этого и предназначен spaCy: вы вводите необработанный текст, и получите обратно объект Doc , который поставляется с различными аннотаций.

После токенизации spaCy может проанализировать и тег для данного Doc . Это где появляется статистическая модель, которая позволяет spaCy для делать прогноз какой тег или метка наиболее вероятно применима в данном контексте. Модель состоит из двоичные данные и создается путем демонстрации системы достаточного количества примеров, чтобы она могла предсказания, которые обобщаются по всему языку, например, следующее за словом «The» в английском языке, скорее всего, является существительным.

Лингвистические аннотации доступны как Токен атрибутов. Как и многие библиотеки НЛП, spaCy кодирует все строки в хеш-значения , чтобы уменьшить использование памяти и улучшить эффективность. Итак, чтобы получить удобочитаемое строковое представление атрибута, мы необходимо добавить к его имени символ подчеркивания _ :

  import spacy nlp = spacy.load ("en_core_web_sm") doc = nlp («Apple рассматривает возможность покупки британского стартапа за 1 миллиард долларов») для токена в документе: печать (маркер.текст, token.lemma_, token.pos_, token.tag_, token.dep_, token.shape_, token.is_alpha, token.is_stop)  
  • Текст: Исходный текст слова.
  • Лемма: Основная форма слова.
  • POS: Простой тег части речи UPOS.
  • Тег: Подробный тег части речи.
  • Dep: Синтаксическая зависимость, то есть связь между токенами.
  • Форма: Форма слова - заглавные буквы, знаки препинания, цифры.
  • is alpha: Является ли токен альфа-символом?
  • is stop: Является ли токен частью стоп-листа, т.е. наиболее частыми словами язык?
9008 False 900 p900x

0

0 6

0

0 False

0 CD

0 соединение d

Текст Лемма POS Тег Dep Форма alpha stop
Apple apple PROPN NNP nsubj Xxxxx True False
is be AUX VBZ 4 VBZ

0

6 aux

0

0

0

True
глядя внешний вид VERB VBG ROOT xxxx

4

при ADP IN Prep xx True True
покупка покупка VERB VBG Верно Ложно
U.K. u.k. PROPN NNP соединение X.X. Ложь Ложь
запуск запуск NOUN NN dobj xxxx 6
для для ADP IN Prep xxx True True
SY 9003 $ Quantmod $ Ложь Ложь
1 1 NUM 5 Ложь Ложь
миллиардов миллиардов NUM CD pobj xxxx Истинно 4

Ложные теги и ярлыки

Большинство тегов и ярлыков выглядят довольно абстрактно, и они различаются между языки. spacy.explain покажет вам краткое описание - например, spacy.explain ("VBZ") возвращает "глагол, настоящее время в единственном числе от третьего лица".

Используя встроенный визуализатор дисплея spaCy, вот что наше примерное предложение и его зависимости выглядят следующим образом:

📖 Схема тегов части речи

Для списка назначенных мелкозернистых и крупнозернистых тегов части речи по моделям spaCy на разных языках, см. Документация по схеме POS-тегов.

Морфология на основе правил

Флективная морфология - это процесс, при котором корневая форма слова изменен путем добавления префиксов или суффиксов, определяющих его грамматическую функцию но не меняет его часть речи.Мы говорим, что лемма (корневая форма) является склонен (модифицированный / комбинированный) с одним или несколькими морфологическими признаками от до создать форму поверхности. Вот несколько примеров:

Контекст Поверхность Лемма POS Морфологические особенности
Я читал статью читал читать глагол VerbForm = Ger
Я не смотрю новости, читаю газету читаю читаю глагол VerbForm = Fin , Mood = Ind , Tense = Pres
I читать газету вчера читать читать глагол VerbForm = Fin , Mood = Ind , Tense = Past

Английский язык имеет относительно простую морфологическую систему, которую spaCy обрабатывает с помощью правила, которые могут быть введены с помощью токена, тега части речи или комбинации из двух.Система работает следующим образом:

  1. Токенизатор обращается к таблица сопоставления TOKENIZER_EXCEPTIONS , которая позволяет отображать последовательности символов в несколько жетонов. Каждому токену может быть назначена часть речи и одно или несколько морфологические особенности.
  2. Затем тегер части речи присваивает каждому токену расширенный тег POS . В API эти теги известны как Token.tag . Они выражают часть речи (например, VERB ) и некоторый объем морфологической информации, например.грамм. что глагол - прошедшее время.
  3. Для слов, POS которых не установлен предыдущим процессом, таблица сопоставления TAG_MAP сопоставляет теги с часть речи и набор морфологических признаков.
  4. Наконец, основанный на правилах детерминированный лемматизатор отображает форму поверхности на лемма в свете ранее назначенной расширенной части речи и морфологическая информация без учета контекста токена. lemmatizer также принимает файлы исключений на основе списков, полученные из WordNet.

spaCy имеет быстрый и точный синтаксический анализатор зависимостей, а также богатый API для навигации по дереву. Парсер также поддерживает границу предложения обнаружения и позволяет перебирать базовые словосочетания с существительными или «фрагменты». Ты можешь проверьте, был ли объект Doc проанализирован с помощью doc.is_parsed атрибут, который возвращает логическое значение. Если этот атрибут False , итератор предложений по умолчанию вызовет исключение.

Отрезки существительных

Отложения существительных - это «базовые словосочетания» - плоские фразы, в которых есть существительное в качестве своего глава.Вы можете представить себе существительное как существительное плюс слова, описывающие существительное. - например, «пышная зеленая трава» или «крупнейший в мире технологический фонд». к получить куски существительного в документе, просто перебрать Doc.noun_chunks

  import spacy nlp = spacy.load ("en_core_web_sm") doc = nlp («Автономные автомобили переносят страхование ответственности на производителей») для чанка в doc.noun_chunks: print (chunk.text, chunk.root.text, chunk.root.dep_, chunk.root.head.text)  
  • Текст: Исходный текст фрагмента существительного.
  • Корневой текст: Исходный текст слова, соединяющего кусок существительного с остальная часть синтаксического анализа.
  • Root dep: Отношение зависимости, соединяющее корень с его головкой.
  • Текст заголовка корневого токена: Текст заголовка корневого токена.
Текст root.text root.dep_ root.head.text
Автономные автомобили автомобили nsubj смена
страхование ответственности ответственность dobj смена
производители производители pobj к

Навигация по дереву синтаксического анализа

spaCy использует термины head и child слова связаны единственная дуга в дереве зависимостей.Термин dep используется для дуги метка, которая описывает тип синтаксического отношения, которое связывает ребенка с голова. Как и другие атрибуты, значение .dep является хеш-значением. Ты можешь получить строковое значение с .dep_ .

  импорт прост. nlp = spacy.load ("en_core_web_sm") doc = nlp («Автономные автомобили переносят страхование ответственности на производителей») для токена в документе: print (token.text, token.dep_, token.head.text, token.head.pos_, [ребенок для ребенка в жетоне.дети])  
  • Текст: Исходный текст токена.
  • Dep: Синтаксическое отношение, связывающее дочерний элемент с головой.
  • Текст заголовка: Исходный текст токена головы.
  • Head POS: Тег части речи токен-головки.
  • Потомки: Непосредственные синтаксические зависимости токена.

03

0

Текст Dep Текст заголовка Головной POS Детский
Автономный amod автомобилей NOUN
nsubj смена VERB Автономная
смена ROOT смена VERB легковые автомобили, ответственность, в сторону
4 страхование соединения ответственность NOUN
ответственность dobj смена VERB страхование
по направлению к Pre смена

0

6 NOUN
производители pobj к ADP

Поскольку синтаксические отношения образуют дерево, каждое слово имеет ровно одно голова .Поэтому вы можете перебирать дуги в дереве, перебирая слова в предложении. Обычно это лучший способ сопоставить дугу проценты - снизу:

  импорт прост. из spacy.symbols import nsubj, VERB nlp = spacy.load ("en_core_web_sm") doc = nlp («Автономные автомобили переносят страхование ответственности на производителей») глаголы = набор () для possible_subject в документе: if possible_subject.dep == nsubj и possible_subject.head.pos == ГЛАГОЛ: verbs.add (possible_subject.глава) печать (глаголы)  

Если вы попытаетесь найти соответствие сверху, вам придется повторить итерацию дважды. Один раз за голову, а потом снова через детей:

  глаголы = [] для possible_verb в документе: если возможно_verb.pos == ГЛАГОЛ: для possible_subject в possible_verb.children: если возможно_subject.dep == nsubj: verbs.append (possible_verb) перерыв  

Для перебора дочерних элементов используйте атрибут token.children , который предоставляет последовательность из объектов Token .

Итерация по локальному дереву

Есть еще несколько удобных атрибутов для итерации по локальному дереву. дерево из жетона. Token.lefts и Token.rights Атрибуты обеспечивают последовательность синтаксических дочерние элементы, которые появляются до и после токена. Обе последовательности в предложении порядок. Также есть два целочисленных атрибута: Token.n_lefts и Token.n_rights , которые дают количество левых и правых дети.

  импорт прост. nlp = простор.загрузить ( "en_core_web_sm") doc = nlp («ярко-красные яблоки на дереве») print ([token.text для токена в doc [2] .lefts]) print ([token.text для токена в doc [2] .rights]) распечатать (документ [2] .n_lefts) распечатать (документ [2] .n_rights)  
  импорт прост. nlp = spacy.load ("de_core_news_sm") doc = nlp ("schöne rote Äpfel auf dem Baum") print ([token.text для токена в doc [2] .lefts]) print ([token.text для токена в doc [2] .rights])  

Вы можете получить целую фразу по ее синтаксическому заголовку, используя Жетон.атрибут поддерева . Это возвращает заказанный последовательность жетонов. Вы можете подняться на дерево с помощью Token.ancestors атрибут, и проверьте доминирование с помощью Token.is_ancestor

Проективное и непроективное

Для английской модели по умолчанию дерево синтаксического анализа проективное , что означает отсутствие скобок. Токены, возвращенные . Поддерево поэтому гарантированно будет непрерывным. Это не так для Немецкая модель, у которой много непроективные зависимости.

  импорт прост. nlp = spacy.load ("en_core_web_sm") doc = nlp ("Владельцы кредитных и ипотечных счетов должны подавать свои запросы") root = [токен для токена в документе if token.head == токен] [0] subject = list (root.lefts) [0] для потомка в subject.subtree: утверждать, что субъект является потомком или субъектом. is_ancestor (потомок) print (Потомок.текст, Потомок.dep_, Потомок.n_lefts, descendant.n_rights, [ancestor.text для предка в потомке .ancestors])  
Текст Dep n_lefts n_rights предки
Credit nmod 0
держатели, держатели и cc 0 0 держатели, подайте
ипотечный составной 0 0 счет, кредит, держатели
счет конъюнктура 1 0 Кредит, держатели, представить
держатели nsubj 5 представить 1 4 63 0 5

Наконец, .Атрибуты left_edge и .right_edge могут быть особенно полезны, потому что они дают вам первый и последний токены поддерева. Это Самый простой способ создать объект Span для синтаксической фразы. Обратите внимание, что .right_edge дает токен в пределах поддерева - поэтому, если вы используете его как конечная точка диапазона, не забудьте +1 !

  импорт прост. nlp = spacy.load ("en_core_web_sm") doc = nlp ("Владельцы кредитных и ипотечных счетов должны подавать свои запросы") span = doc [doc [4].left_edge.i: документ [4] .right_edge.i + 1] с doc.retokenize () в качестве ретокенизатора: retokenizer.merge (диапазон) для токена в документе: print (token.text, token.pos_, token.dep_, token.head.text)  
Текст POS Dep Текст заголовка
Держатели кредитных и ипотечных счетов NOUN nsubj представить
3 VER 9000 aux отправить
отправить VERB ROOT отправить
свои ADJ возможных запросов
NOUN dobj submit
📖 Схема меток зависимостей

Для списка меток синтаксических зависимостей, назначенных моделями spaCy по разные языки, см. документация схемы метки зависимости.

Визуализация зависимостей

Лучший способ понять синтаксический анализатор зависимостей spaCy - интерактивный. Делать это проще, spaCy v2.0 + поставляется с модулем визуализации. Вы можете сдать Doc или список из объектов Doc для отображения и запуска displacy.serve для запуска веб-сервера или displacy.render для создания необработанной разметки. Если вы хотите знать, как писать правила, которые подключаются к синтаксису конструкции, просто вставьте предложение в визуализатор и посмотрите, как spaCy аннотирует это.

  импорт прост. от просторного импорта nlp = spacy.load ("en_core_web_sm") doc = nlp («Автономные автомобили переносят страхование ответственности на производителей») displacy.render (док,)  

Подробнее и примеры см. руководство по визуализации spaCy. Вы также можете протестировать Отображение в нашей онлайн-демонстрации.

Отключение парсера

В моделях по умолчанию парсер загружается и включается как часть стандартный конвейер обработки. Если тебе не нужно любую синтаксическую информацию следует отключить парсер.Отключение парсер заставит spaCy загружаться и работать намного быстрее. Если вы хотите загрузить парсер, но необходимо отключить его для определенных документов, вы также можете контролировать его использование на объект нлп .

  nlp = spacy.load ("en_core_web_sm", disable = ["parser"]) nlp = English (). from_disk ("/ model", disable = ["parser"]) doc = nlp ("Я не хочу разбираться", disable = ["parser"])  
Важное примечание: отключение компонентов конвейера

Поскольку spaCy v2.0 имеет лучшую поддержку для настройки обработки компонентов конвейера, аргумент ключевого слова парсера заменен на отключить , который принимает список имена компонентов трубопровода.Это позволяет отключить как стандартные, так и пользовательские компоненты при загрузке модели или инициализации Языковой курс через с_диска .

  + nlp = spacy.load ("en_core_web_sm", disable = ["parser"]) + doc = nlp ("Я не хочу разбираться", disable = ["parser"]) - nlp = spacy.load ("en_core_web_sm", parser = False) - doc = nlp («Я не хочу разбираться», parse = False)  

spaCy имеет чрезвычайно быструю систему распознавания статистических объектов, которая назначает метки смежным участкам токенов.Модель по умолчанию определяет разнообразие именных и числовых объектов, включая компании, местоположения, организации и продукты. Вы можете добавлять в сущность произвольные классы систему распознавания и пополните модель новыми примерами.

Распознавание именованных объектов 101

Именованные объекты - это «объекты реального мира», которым присвоено имя, например человек, страна, продукт или название книги. spaCy может распознать различных типов именованных сущностей в документ, запросив у модели прогноз .Потому что модели статистические и сильно зависят от примеров, на которых они обучались, это не всегда работает безупречно и может потребоваться дополнительная настройка позже, в зависимости от ваш вариант использования.

Именованные объекты доступны как свойство ents в Doc :

  import spacy nlp = spacy.load ("en_core_web_sm") doc = nlp («Apple рассматривает возможность покупки британского стартапа за 1 миллиард долларов») для Ent в док. центрах: print (ent.text, ent.start_char, ent.end_char, ent.label_)  
  • Текст: Исходный текст объекта.
  • Начало: Индекс начала объекта в Doc .
  • Конец: Указатель конца объекта в Doc .
  • Метка: Метка объекта, т.е. тип.
Текст Начало Конец Этикетка Описание
Apple 0 5 ORG Компании, агентства, учреждения.
Великобритания 27 31 GPE Геополитическая единица, то есть страны, города, государства.
1 миллиард долларов 44 54 ДЕНЬГИ Денежное выражение, включая единицы.

Используя встроенный визуализатор DISPLACY в spaCy, вот что Наш примерное предложение и его именованные сущности выглядят так:

Доступ к аннотациям сущностей

Стандартный способ доступа к аннотациям сущностей - это doc.энц Свойство, которое создает последовательность из объектов Span . Организация Тип доступен либо как хеш-значение, либо как строка с использованием атрибутов ent.label и ent.label_ . Объект Span действует как последовательность токенов, поэтому вы можете перебирать объект или индексировать его. Вы также можете получить текстовую форму всего объекта, как если бы это был один токен.

Вы также можете получить доступ к аннотациям токенов, используя токен.ent_iob и token.ent_type атрибутов. token.ent_iob указывает независимо от того, начинается ли объект, продолжается или заканчивается на теге. Если тип объекта не установлен на токене он вернет пустую строку.

Схема IOB
  • I - Токен находится внутри объекта.
  • O - Токен находится вне организации.
  • B - Токен - это начало сущности.
  импорт прост. nlp = spacy.load ("en_core_web_sm") doc = nlp ("Сан-Франциско рассматривает вопрос о запрете роботов для доставки тротуаров") ents = [(e.текст, e.start_char, e.end_char, e.label_) для e в doc.ents] печать (энтов) ent_san = [doc [0] .text, doc [0] .ent_iob_, doc [0] .ent_type_] ent_francisco = [документ [1] .text, doc [1] .ent_iob_, doc [1] .ent_type_] печать (ent_san) печать (ent_francisco)  
начало предприятия
Текст ent_iob ent_iob_ ent_type_ Описание
San 3 B «GPE»
Франциско 1 I «GPE» внутри организации
рассматривает 2 O «снаружи» субъект
запрещающий 2 O "" вне предприятия
тротуар 2 O

0

" " "" вне организации
поставка 2 900 86 O "" вне организации
роботов 2 O "" вне организации

Установка аннотаций

Чтобы гарантировать, что последовательность аннотаций токенов остается неизменной, вы должны установить аннотации сущностей на уровне документа .Однако вы не можете писать непосредственно в атрибуты token.ent_iob или token.ent_type , поэтому самый простой способ установки сущностей - присвоить атрибуту doc.ents и создайте новый объект как Span .

  импорт прост. из spacy.tokens import Span nlp = spacy.load ("en_core_web_sm") doc = nlp ("fb нанимает нового вице-президента по глобальной политике") ents = [(e.text, e.start_char, e.end_char, e.label_) для e в doc.ents] печать ( 
.

лингвистический - Λγγλοελληνικό Λεξικό WordReference.com

      • ρόσφατες αναζητήσεις:

WordReference Англо-греческий словарь © 2020:

Κύριες μεταφράσεις
лингвистический прил. прилагательное : Описывает существительное или местоимение - например, «девушка ростом , », интересная книга "" большой дом ." (словесное, языка) γλωσσικός επίθ επίθετο : Περιγράφει το ουσιαστικό που συνοδεύει, π.χ. ψηλός άντρας, καλός καιρός κλπ, και αλλάζει ανάλογα με το γένος, π.χ καλός, καλή, καλό
Лингвистические изменения со временем неизбежны.
лингвистические прил. прилагательное : описывает существительное или местоимение - например, "высокий девушка "" интересная книга "," большой дом "." (в отношении использования языка) γλωσσολογικός επίθ επίθετο : Περιγράφει το ουσιαστικό που συνοδεύει, π.χ. ψηλός άντρας, καλός καιρός κλπ, και αλλάζει ανάλογα με το γένος, π.χ καλός, καλή, καλό
Лингвистическая теория более техническая, чем думает большинство людей.
лингвистика n существительное : Относится к человеку, месту, вещи, качеству и т. Д. (наука о языке) γλωσσολογία ουσ θηλ ουσιαστικό θηλυκό : Αναφέρευται σε πρόσωπο, ζώοα ύοηκοα.

WordReference Англо-греческий словарь © 2020:

Σύνθετοι τύποι:
лингвистические способности n существительное : Относится к человеку, месту, вещи, качеству и т. Д. (языковые способности) γλωσσική ικανότητα επίθ + ουσ θηλ
Новый рекрут прошел проверку на хорошие лингвистические способности.
лингвистический анализ n существительное : Относится к человеку, месту, предмету, качеству и т.д. κατά κανόνα χρησιμοποιείται αυτούσιος στον λόγο, π.χ. βρέχει καρεκλοπόδαρα, χαίρω άκρας υγείας κλπ.
Изучение общения животных, называемое биолингвистикой, является увлекательной отраслью лингвистического анализа.
лингвистический корень n существительное : Относится к человеку, месту, предмету, качеству и т.д. , ζώο ή πράγμα θηλυκού γένους.
( κατά λέξη ) γλωσσική ρίζα επίθ + ουσ θηλ

Ο ρος ' linguistic ' βρέθηκε επίσης στις εγγραφές:

Στην αγγλική περιγραφή:

.

All Things Linguistic

Это сложно. Закрытый и открытый - стандартные термины, но они представляют собой упрощение: более точное описание могло бы быть «классы слов, которые часто принимают новые члены» и «классы слов, которые принимают новые члены только изредка».

Итак, существительные, глаголы, прилагательные и т. Д. Открыты (классы слов, которые часто принимают новые члены), потому что мы постоянно создаем новые существительные и глаголы, и никто не моргает. Фактически, я могу сделать его прямо сейчас - скажем, это chocopocalypse , что произойдет, если в мире закончится шоколад - и для того, чтобы люди начали его использовать, не потребуется много времени.

Утверждение, что местоимения, союзы, предлоги, определители и т. Д. Закрыты, действительно отражает реальную разницу между ними и существительными / глаголами / и т. Д., Потому что, конечно, сложнее добавлять новые. Но на самом деле в эти классы время от времени попадают новые участники, и это действительно здорово, потому что такое случается очень редко. (Нет, если серьезно, лингвисты в «Слове года» проголосовали за год, когда «косая черта» была введена в качестве нового союза, были , поэтому взволновали .)

Но исторически все «закрытые» слова в какой-то момент изменились , потому что не все мы до сих пор говорим на пра-мире, за исключением существительных и глаголов.В местоимениях, например, у нас было thou / thee и you / ye , а теперь только you (но мы разрабатываем y’all и you, ). Они и she также являются относительными новичками в английском языке, появившимися примерно в XII-XIV веках: все местоимения третьего лица обычно начинались с иногда опущенной h , поэтому у нас есть her и em (мы повторно проанализировали em как сокращение от до , но на самом деле это пережиток более старой формы).Да, и это тоже было хитом. Но эти изменения, как правило, занимают пару сотен лет, чтобы полностью закрепиться для закрытых классов, в то время как они могут произойти через несколько месяцев или лет для открытых. (Подумайте, сколько времени понадобилось, чтобы blog или google превратились в глагол. Может, год?)

Итак, что это означает для нейтральных в гендерном отношении местоимений третьего-единственного числа? Ну, они использовались как единичные со времен Чосера, но в основном в неспецифических контекстах («кто-то оставил свою книгу»), поэтому адаптация его к конкретным («Алекс оставил свою книгу») - это немного расширение, но не большое один.Исторические тенденции предполагают, что новые функциональные слова с большей вероятностью возникнут в результате адаптации существующих слов, чем из совершенно новых конструкций. Так что, если бы я собирался сделать ставку, я определенно думаю, что единичные или (как в конкретной, так и в неспецифической версии) имеют очень хорошие шансы на долгосрочный успех. С точки зрения популярности у меня сложилось впечатление, что они также являются наиболее распространенными небинарными местоимениями, возможно, по этой причине.

Более новые, например, xie / hir или ey / em ? Это зависит.Есть несколько речевых сообществ, в которых часто использовалось определенное гендерно-нейтральное местоимение, и люди их подбирали. (Местоимения Spivak, например, прижились в LambdaMOO.) Но я не знаю, как это прошло для любого речевого сообщества, которое пыталось иметь несколько гендерно-нейтральных местоимений третьего единственного числа одновременно. Я подозреваю, что это сложнее, но не знаю, невозможно ли это. Никто не знает. Мы еще толком не пробовали, по крайней мере, в масштабе десятилетий и веков.Возможно, дети, которые в молодом возрасте знакомятся с множеством разных местоимений, даже будут относиться к ним как к открытому классу. (Позвольте мне сказать вам, что это могло бы вызвать серьезное возбуждение у лингвистов.) Или, может быть, люди в конечном итоге просто сходятся на единственном конкретном , а вместо этого .

Но в любом случае разница между закрытыми и открытыми классами заключается в том, почему мы можем начать небрежно использовать селфи или гетеронормативность через день или два, но у нас может потребоваться гораздо больше времени, чтобы получить полностью автоматический режим на ze или единичном конкретном у них , даже если стараться изо всех сил . Я сторонник уважения к местоимениям людей, но считаю, что нужно подумать еще полсекунды, чтобы сказать те, к которым я не привык. Но поскольку я знаю, что борюсь с естественной склонностью, тот факт, что для этого требуется больше практики, чем изучение нового существительного, не является чем-то, из-за чего я испытываю чрезмерное напряжение - на самом деле, я думаю об этом как об интересном умственном упражнении, таком как отработка нового имени. язык. (Этот тип дополнительного сознательного контроля, вероятно, связан со связью между изучением языка и исполнительными функциями.)

В более общем плане, я думаю, полезно признать, что научиться использовать местоимение, с которым вы никогда раньше не сталкивались, не так просто, как выучить, скажем, имя человека, который так же незнаком. И мы никому не помогаем, притворяясь, что все остальные находят это легким, и заставляя людей делать это, потому что им трудно, что с ними что-то не так или этого не стоит делать. Например, люди, которые говорят «но они - единственное число», ошибаются в деталях ( они уже давно использовались в единственном числе), но правы в неопределенном смысле беспокойства ( они исторически не использовались для конкретные, единичные референты).Просто этот дискомфорт, судя по тому, что мне сказали, намного более мягкий и временный, чем чувство неправильного гендерного равенства, поэтому вопрос в том, что вы хотите расставить по приоритетам. Жалко, что через пару сотен лет нас не будет, чтобы увидеть, как это обернется, но до тех пор язык является проектом с открытым исходным кодом, и мы не узнаем, какие части можно взломать, если не попробуем.

(Соответствующие ссылки: Практика с местоимениями, Руководство небинарного человека по придуманным местоимениям.)

Я рад, что в этом посте упоминается, что «она» тоже не было «естественным» местоимением.до н.э. да. Местоимения со временем меняются, и мы создаем новые. все нормально.

.

Смотрите также