Наукова фантастика часто малює жахливі картини повстання штучного інтелекту, проте нове дослідження, проведене Іриною Гуревич з Технічного університету Дармштадта та Харішем Тайяром Мадабуші з Університету Бата, спростовує ці страхи. Вони стверджують, що великі мовні моделі (ВММ), такі як ChatGPT, не здатні вийти з-під контролю, оскільки їхні можливості обмежені їхнім програмуванням.
Виходи штучного інтелекту під контроль
Дослідники заспокоюють, що хоча ВММ можуть бути використані в недобрих цілях, самі по собі вони не становлять небезпеки. Тайяр Мадабуші підкреслив, що побоювання про те, що моделі стануть несподівано небезпечними, не є обґрунтованими. «Страх, що модель може набути небезпечних здібностей, не підтверджується», — зазначив він.
Емерджентні здібності – що це
Дослідження зосередилося на емерджентних здібностях ВММ, які здатні виконувати завдання без спеціального навчання. Дослідники протестували чотири різні моделі, але не знайшли доказів розвитку самостійного мислення. Усі демонстрації здібностей можна було пояснити їхньою здатністю виконувати інструкції та запам’ятовувати інформацію.
Попри те, що ВММ залишаються під контролем, Гуревич зауважила, що це не означає відсутність загроз. Зокрема, є ризики, пов’язані з їх використанням для поширення дезінформації. Дослідження закликає до подальших розслідувань у цій сфері, щоб краще зрозуміти потенційні загрози штучного інтелекту. Результати дослідження були опубліковані на 62-й щорічній зустрічі Асоціації комп’ютерної лінгвістики, що свідчить про важливість контролю за технологіями штучного інтелекту.
Раніше робототехнічний стартап Figure презентував новітнього людиноподібного робота F.02.
+ Немає коментарів
Додайте свій