Рубрики
IT - разное

О ChatGPT и ему подобных. Часть 1. Мои мысли по поводу

Сначала я просто невзлюбил ChatGPT. Я не понимал, что с ним не так и почему он мне не нравится. Но где-то в глубине души словно заноза засело ощущение, что тут что-то не так. Уже позднее, ближе познакомившись и с ChatGPT и с прочими представителями искусственного интеллекта (изначально тут было написано «нейросетями и llm моделями», но затем, лучше разобравшись с этими понятиями, я понял, что так писать будет не совсем корректно), я смог уже более точно сформулировать, что именно мне в этом всем не нравится. Так что если вам это интересно — можете читать далее.

Вступление

Итак, начнем немного издалека. О ChatGPT впервые я узнал, скорее всего, на Хабре. Первые упоминания о нем у нас в Дискорде датируются где-то январем 2023 года. На тот момент интернет вовсю уже бурлил, обсуждая возможности нового искусственного интеллекта, представленного в виде чат-бота. В какой-то момент времени об этом говорили буквально везде: в профильных издания и сайтах, в новостях, на форумах и в социальных сетях.

Хотя, справедливости ради, о немного иных представителях искусственного интеллекта (далее просто ИИ) заговорили раньше, приблизительно летом 2022 года, когда появились (и тоже породили бурления в сети) генераторы изображения Midjourney и DALL-E. Между прочим, об одной из программ для генерации изображений я уже писал в прошлом году — Fooocus — простая и доступная нейросеть для генерации изображений по текстовому описанию, там тоже есть часть моих размышлений на тему. Только они касались именно генераторов изображений, что имеет свои особенности.

Изначально мое неприятие упомянутых генеративных ИИ скорее всего было связано с нотками эгоизма, звучащими в глубине моей личности. Почему так? Дело в том, мне всегда было интересно что-то творить, создавать. При этом я никогда не считал себя особо выдающимся человеком в любой из интересующих меня сфер творчества. Да-да, возможно, вы уже поняли куда я клоню.

С самого начала появления и генераторов изображений, и затем чат-ботов, генерирующих текстовые ответы на любые темы, заговорили о том, что они смогут заменить человека во многих сферах, лишить его работы, заметить в творчестве и так далее. И касалось это прежде всего не очень высококвалифицированных работников и творцов, делающих много часто условно механической работы. Вроде меня. Кому интересно такое творчество, результаты которого можно легко сгенерировать написанием абзаца текста и парой щелчков мыши? На самом деле это не совсем так, хотя в этом и есть здравое зерно.

Мне изначально показалось, что новые генеративные ИИ смогут полностью заменить таких людей как я в творчестве и многих других в профессиональной деятельности. Со временем стало ясно, что это не так. И мое неприятие ChatGPT в итоге оказалось связанно с другим. И заметно ослабло.

Отчасти первоначальное мое неприятие ChatGPT может быть связан и с возрастом. Дело в том, что становясь старше люди часто становятся более консервативными. Им сложнее принимать что-то новое. Вероятно, это связано с тем, что с возрастом человеку все сложнее изучать что-то новое, все меньше хочется напрягаться, поэтому ему легче и проще оставаться в своем болоте. Надо уметь преодолевать такие желания и оставаться открытым всему новому. Даже если это может быть сложно.

Текстовые чат-боты

Теперь давайте сосредоточимся на текстовых генеративных ИИ, которые работают на основе больших языковых моделей (LLM), которые, в свою очередь основаны на машинном обучении. Точнее одном из его элементов — нейронных сетях. Современные LLM в основном созданы на основе такой модели машинного обучения как трансформер. Вот такой вот набор терминов, которые обычно путают и мешают между собой как хотят, несмотря на то, что это близкие, но все-таки разные вещи. На мой взгляд называть генеративный ИИ нейронной сетью некорректно. Нейронная сеть это математическая модель (на самом деле сложнее, но пусть будет так). В какой-то степени можно сказать, что это что-то вроде алгоритма. На основе различных моделей создают и обучают LLM. Которые в свою очередь являются основой для генеративного ИИ, представленного сейчас в виде различных чат-ботов. И мы вернулись к началу. Тот случай, когда «ничего не понятно, но очень интересно». Я, конечно, не являюсь специалистом в этой области, поэтому как понял, так и описал. Можно попробовать представить себе, что нейронная сеть это то, как устроен процессор, его архитектура. LLM это мозг или процессор, построенный на основе архитектуры нейронной сети. А чат-бот — это компьютер. Станете ли вы называть компьютер процессором?

Почему использовать чат-боты в обучении следует с осторожностью

Что же не так с генеративным ИИ, таким как ChatGPT и многими его последователями (хотя все последователи значительно менее известны, слава первого в чем-то — она такая)? В качестве примера разберем именно текстовые чат-боты, как наиболее распространенные и часто используемые.

На мысль написать эту статью меня подтолкнула беседа по поводу использования ChatGPT в обучении на одном из моих курсов на Степике. Спасибо моему собеседнику за то, что сподвиг меня на развернутые комментарии по теме.

Поэтому и начнем с использования чат-ботов именно в обучении. Хорошо это или плохо? И почему это может быть плохо или хорошо.

Что такое ответ чат-бота по какому-либо вопросу? В какой-то степени это почти тоже самое, что какая-то статья в интернете. Статей по любой теме — огромное количество, начиная от откровенно мусорных до идеальных. Ответ бота как бы добавляет еще одну в виде компиляции. При этом всегда помните, что чат-бот не «думает». Он именно генерирует или компилирует на основе вероятностей и материала, на основе которого он был «обучен». Что и приводит к возможному возникновению так называемых «галлюцинаций». Если вы взяли такую статью/статьи/ответ чат-бота, прочитали, проработали и что-то поняли для себя — то и ок, почему нет. Просто в этом нет ничего особенного. Это часть процесса обучения. Однако возникает вопрос, почему вы предпочли рафинированный ответ чат-бота самостоятельному поиску и обработке информации в сети? Первый вариант быстрее и проще, безусловно. Однако при этом он дает значительно меньше опыта и создает иллюзорность простоты получения знания. Но это не так. Вот эта иллюзорность мне и не нравится. Потому что многие не осознают ее. А потом пожинают последствия.

Чат-боты это инструмент. Как и любым другим инструментом им нужно уметь пользоваться. Инструмент не сделает за человека его работу. Это еще одна вероятная иллюзия. Инструмент не заменит человеку его знаний и опыта. Мне не нравится повальное увлечение чат-гпт и постоянное его выпячивание именно попыткой выдать его в качестве некой «волшебной таблетки», коей он не является. В какой-то мере это попытка обмана людей, которую они они не замечают. Я говорю, естественно, не за всех. Кто-то просто использует чат-гпт как молоток и не парится. Но взяв в руки молоток никто в здравом уме и не подумает, что теперь у него в руках правильный инструмент на все случаи жизни. А попробовав чат-гпт многие начинают думать именно так. Мол, он заменит мне поисковик, он заменит мне необходимость собирать и анализировать информацию для реферата, он выдает мне правильный ответ на любой вопрос и т.д.. На мой взгляд это не очень хорошо. Потому я обычно весьма иронично к этому всему отношусь и не стесняюсь это демонстрировать.

Если мы просто используем чат-бот в качестве инструмента, всегда нужно помнить о том, что его результаты по умолчанию могут быть недостоверными. Да, вероятность этого не высока. Но она всегда есть. Это значит, что вы используете чат-бот как инструмент, вам практически всегда придется проверять результаты его работы. Иначе будет оставаться вероятность того, что вы используете его ответ и сядете в лужу, когда он ошибется. А он рано или поздно обязательно ошибется. Это лишь вопрос времени.

Буквально неделю назад я общался со своим локальным чат-ботом на одну тему. Я перерыл кучу материалов, перебрал разные статьи, но оставались некоторые сомнения и вопросы. И я решил воспользоваться чат-ботом для такой себе дискуссии. Выслушать его мнение. Не взять его ответ и использовать, а именно устроить дискуссию. Посмотреть, что он предложит, послушать аргументы.

Это было интересно. Что-то мне стало более понятно. Однако не благодаря тому, что мне ответил чат-бот, а благодаря тому, что я узнал до этого. Его ответы позволили дополнить информацию. Более того, он традиционно «проглючил». При этом дважды подряд, даже после того как я указал ему на ошибку. И только с третьего раза исправился. Но это произошло лишь потому, что я знал правильный ответ и стал просить его уточнить ответ. А если бы не знал? Поверил бы тому, что он мне написал? Почему я должен верить тому, что он пишет? Когда я ищу информацию, я стараюсь, по возможности, проверять источники, проверять что-то на практике. Проверять по максимуму. А чат-бот обычно просто выдает генеративный текст в виде ответа. Почему я должен ему верить? Особенно в процессе обучения, когда точность очень важна, ведь мы закладываем некий базис, фундамент для дальнейшего углубления наших знаний в той или иной сфере.

Конечно, есть ситуации, когда ответа чат-бота может быть достаточно. Например, вы что-то забыли и хотите вспомнить. То есть вы уже знаете ответ и просто хотите себе напомнить (отчасти, как в моем примере выше). Или сделать какую-то работу, которая вам не интересна и особо не нужна, но ее надо сделать. И результат и его точность не особо важны. Или в каких-то иных ситуациях. Да, это полезный инструмент. Но если вести речь об обучении, да еще такой сложной вещи как, например, программирование, да еще если человек в этой теме не разбирается и не сможет сходу понять, ошибается чат-бот или нет — то проверять придется. То есть придется все равно делать ту же самую работу, которую вы бы делали без чат-бота.

Ответ чат-бота быстрее, но он лишает вас возможности получить навык самостоятельного нахождения, сбора и анализа информации. Если человек уже является специалистом в определенной сфере или ему просто нужно что-то быстро сделать, то ок. Но для обучения это не лучший подход. То есть без использования чат-бота времени уходит больше, но пользы и опыта мы получаем тоже значительно больше.

Поэтому да, чат-бот позволяет делать что-то быстрее. Но тут надо самому для себя определиться, что важнее — быстрее или качественнее. В процессе обучения лучше второе. Чтобы сделать что-то не важное — может быть достаточно и первого.

Я всю свою жизнь занимаюсь преподавательской деятельностью в том или ином виде. И постоянно учусь сам. То есть хочу становиться умнее и лучше, и мне хочется, чтобы другие тоже развивались. Эффективно. Повальное увлечение чат-гпт и прочими подобными ботами способны повести человека не в том направлении из-за моды на них в последние пару лет. В этом я вижу минусы и это мне не нравится.

Когда-то появился интернет, а за ним поисковики. Google набирал обороты. В обиход вошли слова вроде гуглить. Многие решили, что теперь не обязательно что-то учить, запоминать, изучать. Ведь всю информацию можно найти в Google. Это привело к тому, что эти многие могли без проблем найти что-то в сети. Но найти информацию и сделать так, чтобы она была частью тебя, понимать ее и осознавать, превратить ее в свой опыт — это совершенно разные вещи.

Многие решили, что доступ к информации равно владению этой информацией, что в корне не верно. Представьте, что у вас дома есть огромная библиотека, в которой вы можете быстро что-то найти. Сделает ли сам факт наличия этой библиотеки и быстрого доступа к информации из нее вас эрудитом и специалистом в какой-либо области? Нет. Упростит ли это возможность обучения, как инструмент — да.

Это достаточно легко проверить, когда ведешь в сети с кем-то дискуссию. Если человек «не в теме» но умеет хорошо гуглить, это обычно хорошо заметно. Он легко находит какие-то факты, оперирует терминами, но стоит начать разбирать детали и выясняться, что он ничего в этом не понимает. У него есть иллюзия знаний, а не сами знания.

Не хочется, чтобы люди повторяли ту же ошибку снова. На это раз, используя чат-боты.

Итоги

Подведу некоторые итоги. А то заметка и так получилась слишком длинной и, вероятно, суховатой и скучной.

Если человек осознает все то, о чем я выше написал, все возможные подводные камни использования чат-бота — то это хорошо. Ведь я тоже иногда пользуюсь чат-гпт или его локальными аналогами. В конце концов, я же не луддит какой-то)

Варианты использования инструмента могут быть разные. Главное чтобы они приносили максимум пользы в каждой конкретной ситуации. Будь это обучение, увлечение, творчество или работа.

Многие используют чат-боты следующим образом. Сначала спрашивают у него. Затем, если они в чем-то сомневаются, могут пойти и проверить информацию через поисковики. У меня обычно получается иначе. Я сначала ищу информацию, анализирую и если что-то не до конца понимаю или хочу посмотреть на иную точку зрения, что-то уточнить — тогда спрашиваю у чат-бота и смотрю на то, что он ответит. Для меня это просто еще один инструмент. Не «волшебная таблетка» на все случаи жизни. Не основа основ. Просто инструмент. Еще один. Не лучше и не хуже других.

В конце хочу привести пару примеров, чтобы было понятно, чего можно ожидать от чат-бота, если слепо ему верить.

Вот наглядный пример того, как чат-гпт банально ошибается. Возможно, ошибочный был промпт, но, вероятнее, это очередной пример «галлюцинации» чат-бота.

Из недавнего, мне надо было получить короткую выжимку по одному видео с ютуба. Я указал чат-гпт на конкретное видео. Он его нашел, видео было правильным. Но вот его описание абсолютно не соответствовало представленному видео. Совершенно. Когда я ему указал на то, что что-то пошло не так, он, конечно, исправился. Но «осадочек остался».

PS При написании данной статьи ни один генеративный ИИ не пострадал. Я их не использовал, поэтому любые косяки, ошибки, неточности — полностью на моей совести.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *