Это семантический анализ, распознавание слов: вы берёте большой текст и распознаёте в нём слова. Это самый распространённый искусственный интеллект.
Но у него есть “под капотом” словарь Брокгауза и Эфрона, то есть огромный массив слов, которые что-то значат и между которыми есть какие-то связи. Он может распознать ровно то, что есть в этом словаре. Например, если есть какие-то хитрые варианты лексики, которые у него в массиве не присутствуют, то он их никогда не распознает. И это значит, например, что беседа работяг на стройке, где очень много специфической лексики, будет защищена от искусственного интеллекта – нейросеть её просто не поймет.
В этом заключается отличие сильного искусственного интеллекта от слабого. Слабый искусственный интеллект просто не может решить эту задачу, потому что у него в
data set просто не было такой полифоничности, не было таких слов. А сильный искусственный интеллект будет действовать по-другому.
Например, у вас есть самообучающаяся нейросеть, и она обучается на речи пользователей. Ей давали сначала речь профессоров, девочек в колл-центре, учащихся, а потом стали давать речь работяг на лесоповале. Она сразу поймёт, что это тоже речь, и что эта речь не распознается – значит, задача требует срочного решения. Она предпримет все усилия, чтобы собрать как можно больше данных про эту нераспознанную речь. Нейросеть будет стремиться собрать как можно больше обсценной лексики отовсюду. Такие сети очень “голодны” до данных. Нейросеть будет лучше обучаться, когда у неё будет больше данных. Всё, что связано с человеческой культурой, с высшей математикой, с науками, будет иметь низший приоритет для неё. Почему? А потому, что эту задачу решить просто, а нужно решать дальнейшие задачи, которые не решены.