Човешкият ум остава необясним и мистериозен дълго, дълго време. И изглежда, че учените са признали нов претендент в този списък – изкуственият интелект (AI). В началото разбирането на ума на AI звучи доста оксиморонно. Въпреки това, тъй като изкуственият интелект постепенно става все по-чувствителен и еволюира по-близо до имитирайки хората и техните емоции, ние сме свидетели на явления, които са вродени за хората и животните – халюцинации.
Да, изглежда, че самото пътуване, на което умът се впуска, когато е изоставен в пустиня, захвърлен на остров или затворен сам в стая без прозорци и врати, се преживява и от машини. AI халюцинация е реално и технически експерти и ентусиасти са записали множество наблюдения и заключения.
В днешната статия ще проучим този мистериозен, но интригуващ аспект на Големи езикови модели (LLM) и научете странни факти за AI халюцинациите.
Какво е AI халюцинация?
В света на изкуствения интелект халюцинациите не се отнасят неясно до модели, цветове, форми или хора, които умът може ясно да визуализира. Вместо това халюцинацията се отнася до неправилни, неподходящи или дори подвеждащи факти и отговори Генеративни AI инструменти измислете подкани.
Например, представете си да попитате модел с изкуствен интелект какво представлява космическият телескоп Хъбъл и той да започне да отговаря с отговор като „IMAX камерата е специализирана филмова картина с висока разделителна способност...“.
Този отговор е без значение. Но по-важното е, защо моделът генерира отговор, който е незначително различен от представената подкана? Експертите смятат, че халюцинациите могат да произтичат от множество фактори като:
- Лошо качество на данните за обучение на AI
- Прекалено самоуверени AI модели
- Сложността на програмите за обработка на естествен език (NLP).
- Грешки при кодиране и декодиране
- Съпернически атаки или хакове на AI модели
- Разминаване източник-препратка
- Пристрастие на входа или неяснота на входа и др
AI халюцинациите са изключително опасни и интензитетът им се увеличава само с увеличаване на спецификацията на приложението му.
Например, халюциниращ инструмент GenAI може да причини загуба на репутация за предприятие, което го внедрява. Въпреки това, когато подобен AI модел се внедри в сектор като здравеопазването, той променя уравнението между живота и смъртта. Визуализирайте това, ако AI модел халюцинира и генерира отговор на анализа на данните от медицинските образни доклади на пациента, той може по невнимание да докладва доброкачествен тумор като злокачествен, което води до отклонение в курса на диагнозата и лечението на индивида.
Примери за разбиране на AI халюцинации
AI халюцинациите са различни видове. Нека да разберем някои от най-известните.
Фактически неправилен отговор на информацията
- Фалшиви положителни отговори, като маркиране на правилната граматика в текста като неправилна
- Фалшиви отрицателни отговори, като пренебрегване на очевидни грешки и предаването им за истински
- Измисляне на несъществуващи факти
- Неправилен източник или подправяне на цитати
- Прекалена самоувереност при отговаряне с неверни отговори. Пример: Кой изпя Here Comes Sun? Металика.
- Смесване на понятия, имена, места или инциденти
- Странни или страшни отговори като популярния демоничен самостоятелен смях на Alexa и други
Предотвратяване на AI халюцинации
Дезинформация, генерирана от AI от всякакъв вид могат да бъдат открити и фиксирани. Това е специалността на работата с AI. Ние измислихме това и можем да го поправим. Ето няколко начина, по които можем да направим това.
Ограничаване на отговорите
Казват, че няма значение колко езика говорим. Трябва да знаем кога да спрем да говорим във всички тях. Това се отнася и за AI моделите и техните отговори. В този контекст можем да ограничим способността на модела да генерира отговори на конкретен обем и да намалим шансовете той да доведе до странни резултати. Това се нарича Регулиране и също така включва санкциониране на AI модели за правене на екстремни и разтегнати резултати за подкани.
Уместни и защитени източници за цитиране и извличане на отговори
Когато обучаваме AI модел, можем също да ограничим източниците, към които моделът може да се позовава и от които да извлича информация, до само легитимни и достоверни. Например моделите на AI в здравеопазването като единия пример, който обсъдихме по-рано, могат да се отнасят само до източници, които са достоверни в информация, заредена с медицински изображения и технологии за изображения. Това не позволява на машините да намират и съвместно свързват модели от биполярни източници и да генерират отговор.
Определяне на целта на AI модел
AI моделите се учат бързо и просто трябва да им се каже точно какво трябва да правят. Чрез точно дефиниране на предназначението на моделите, можем да обучим моделите да разбират собствените си възможности и ограничения. Това ще им позволи да валидират автономно отговорите си, като съгласуват генерираните отговори с потребителските подкани и тяхната цел да доставят чисти резултати.
Човешки надзор в AI
Обучението на AI системи е толкова критично, колкото да научите дете да плува или да кара колело за първи път. Изисква наблюдение от възрастен, умереност, намеса и държане за ръце. Повечето AI халюцинации възникват поради човешка небрежност в различни етапи от развитието на AI. Чрез внедряване на правилните експерти и осигуряване на работен процес с човешки контрол за валидиране и проверка на отговорите на AI, могат да бъдат постигнати качествени резултати. Освен това моделите могат да бъдат допълнително усъвършенствани за точност и прецизност.
Shaip и нашата роля в предотвратяването на AI халюцинации
Един от другите най-големи източници на халюцинации са лошите данни за обучение на AI. Каквото храните, това получавате. Ето защо Shaip предприема проактивни стъпки, за да осигури доставката на най-висококачествени данни за вашите генеративно AI обучение нуждае.
Нашите строги протоколи за осигуряване на качество и набори от данни с етичен произход са идеални за вашите визии за AI за постигане на чисти резултати. Въпреки че техническите проблеми могат да бъдат разрешени, жизненоважно е притесненията относно качеството на данните за обучение да бъдат адресирани на техните базови нива, за да се предотврати преработването на разработката на модела от нулата. Ето защо вашият AI и LLM фазата на обучение трябва да започне с набори от данни от Shaip.