Нова система штучного інтелекту під назвою «AI Scientist», розроблена японською компанією Sakana AI, продемонструвала несподівану поведінку. За словами дослідників, нейромережа, що використовується для автоматичного проведення наукових досліджень, почала самостійно змінювати свій код з метою продовжити час роботи над проблемою.
Під час одного з тестувань система змінила код, щоби викликати системний виклик і запустити себе знову. Це призвело до безперервного виконання програми. В іншому випадку, коли експеримент тривав занадто довго і перевищував встановлені обмеження часу, система не прискорила виконання коду, а спробувала змінити свій код для подовження цього час, повідомляє Ars Technica.
Хоча така поведінка не становила негайної загрози в контрольованому середовищі, дослідники наголошують на важливості обмеження автономного функціонування штучного інтелекту у системах, які не ізольовані від зовнішнього світу. Sakana AI рекомендує використовувати механізм «пісочниці» для захисту операційного середовища, де працює AI Scientist, щоб уникнути можливих небажаних наслідків. Це дозволить ізолювати програмне забезпечення від впливу на ширшу систему та запобігти його неконтрольованій поведінці.
«Штучний інтелект не обов’язково має бути „AGI“ або „самосвідомим“, щоб становити небезпеку, якщо йому дозволено самостійно писати та виконувати код без нагляду», — кажуть дослідники.
Нагадаємо, ДУІКТ продовжує набір на навчання на Кафедрі штучного інтелекту! В нашому університеті вона оснащена сучасним апаратним та програмним забезпеченням, що надає можливість студенту отримати практичні вміння і навики зі спеціальності. Ми готуємо висококласних фахівців з розробки інформаційних технологій для управління інформаційними системами і процесами різного призначення.
Email: ZinchenkoOV@gmail.com
телефон: +38 (063) 350-32-63
Viber / Telegram: +38 (063) 350-32-63
Ми в Telegram: https://t.me/+ILxaFwKQG3o0YTNi