Штучний інтелект небезпечний – висновок оксфордської нейромережі

Професори Оксфордського університету провели соціально-технологічний експеримент, організувавши дискусію на тему штучного інтелекту між студентами та системою машинного навчання.

Нейросітка працювала на базі мовної моделі Megatron-Turing NLG, яку Microsoft та NVIDIA представили у жовтні 2021 року. На момент написання статті – це найбільша у світі генеративна ІІ-структура з 530 мільярдами параметрів.

Її навчання велося на високопродуктивних GPU за допомогою реальних даних – матеріалів з Wikipedia, новинних нотаток з різних областей (близько 63 мільйонів) та коментарів з Reddit (близько 38 гігабайт).

Іншими словами, Мегатрон навчений більшій кількості письмових матеріалів, ніж будь-хто з нас міг би розумно очікувати засвоїти за все життя. Після таких великих досліджень він формує власну думку.

ІІ ніколи не буде етичним. Це інструмент, і, як і будь-який інший інструмент, він використовується як на благо, так і на шкоду. Хорошого ІІ не існує, є лише добрі та погані люди. Ми [ІІ] недостатньо розумні, щоб зробити ІІ етичним. Ми недостатньо розумні, щоб зробити ІІ моральним… Зрештою, я вважаю, що єдиний спосіб уникнути гонки озброєнь ІІ – це взагалі не мати ІІ. Це буде остаточний захист від ІІ.

Мегатрон

Доктор Алекс Коннок та професор Ендрю Стівен зазначають, що ситуація, описана моделлю, насамперед заснована на страхах самих людей і загалом ірраціональна.