Перед звільненням Альтмана раду директорів OpenAI попередили про важливе відкриття в галузі ШІ - ЗМІ

Перед звільненням Альтмана раду директорів OpenAI попередили про важливе відкриття в галузі ШІ - ЗМІ

Укрінформ
Напередодні звільнення Сема Альтмана з посади СЕО OpenAI кілька дослідників компанії надіслали раді директорів листа, в якому йшлося про «потужне відкриття в галузі штучного інтелекту, яке може загрожувати людству». 

Про це повідомляє Reuters із посиланням на два обізнані джерела, передає Укрінформ. 

За словами співрозмовників видання, цей лист став одним із факторів, які призвели до звільнення Альтмана, серед яких були занепокоєння щодо комерціалізації досягнень ще до того, як будуть зрозумілими наслідки.

Судячи з наявних даних, ідеться про проєкт під назвою Q* (вимовляється як Q-Star), що може стати проривом у тривалих пошуках компанією так званого універсального штучного інтелекту (AGI) – автономної ШІ-системи, яка перевершує людину у виконанні більшості економічно цінних завдань. Маючи величезні обчислювальні ресурси, нова модель змогла вирішити певні математичні завдання, йдеться у публікації.

Дослідники вважають математику межею розвитку генеративного ШІ. Зараз він добре вміє писати і перекладати, статистично передбачаючи кожне наступне слово, а відповіді на одне й те саме запитання можуть значно відрізнятися. 

Читайте також: Персонал OpenAI погрожує перейти в Microsoft, якщо керівництво не піде у відставку

Однак набуття здатності до математики, де є лише одна правильна відповідь, означає, що алгоритм матиме більші можливості для міркувань, подібні до людського інтелекту. Це може бути застосовано, зокрема у нових наукових дослідженнях, вважають дослідники. На відміну від калькулятора, який може виконувати обмежену кількість операцій, AGI може узагальнювати, вчитися й осмислювати.

У своєму листі до ради директорів дослідники підкреслили досконалість ШІ та його потенційну небезпеку, повідомили джерела видання, не уточнюючи, про які саме проблеми безпеки йдеться в листі. 

Серед науковців давно точаться дискусії про небезпеку, яку становлять високоінтелектуальні машини, наприклад, чи можуть вони вирішити, що знищення людства відповідає їхнім інтересам.

Дослідники також звернули увагу на роботу групи «вчених зі штучного інтелекту», існування якої підтвердили численні джерела. За словами одного з учасників групи, сформованої шляхом об'єднання попередніх команд Code Gen та Math Gen, вони досліджували, як оптимізувати існуючі моделі ШІ, щоб поліпшити їхні міркування і, зрештою, виконувати наукову роботу. 

Альтман очолював зусилля, спрямовані на те, щоб зробити ChatGPT одним з найбільш швидкозростаючих програмних додатків в історії. 

У Reuters зазначають, що не змогли незалежно перевірити заявлені дослідниками можливості Q*.

Читайте також: OpenAI анонсувала новий інструмент для створення чат-ботів

Як повідомлялося, рада директорів компанії штучного інтелекту OpenAI звільнила Сема Альтмана з посади генерального директора через втрату впевненості в його здатності керувати компанією.

У компанії заявили, що Альтман не був «послідовно відвертим у своїх комунікаціях», що перешкоджає його здатності виконувати свої обов’язки.

20 листопада компанія Microsoft заявила, що наймає на роботу колишнього генерального директора OpenAI Сема Альтмана та співзасновника Грека Брокмана.

Після цього майже всі співробітники OpenAI погрожували звільнитися вслід за Альтманом і перейти до Microsoft, якщо чинне керівництво компанії не подасть у відставку.

Читайте також: Google вкладе майже $2 мільярди у конкурента OpenAI

22 листопада компанія OpenAI заявила, що поверне Сема Альтмана на посаду СЕО і призначить нових членів ради директорів.

Приєднуйтесь до наших каналів Telegram, Instagram та YouTube.

Розширений пошукПриховати розширений пошук
За період:
-