OpenAI работели по модел, застрашаващ човечеството

Публикуван от в Е Вести Лондон | Дата на публикуване | Последна редакция на | 215 Прегледа

OpenAI работели по модел, застрашаващ човечеството
Източник Снимка :

На фона на трусовете в ръководството на OpenAI стана ясно, че създателите на ChatGPT са работели по проект за изкуствен интелект, който сериозно би могъл да застраши човечеството. За това са предупредили в писмо до ръководството на компанията няколко нейни служители.

Новината беше съобщена от Ройтерс, като агенцията се позова на свои източници, но с уточнението, че няма достъп до писмото и нито работещи в OpenAI, нито от ръководството и са коментирали темата.



Преди шефът на ОpenAI Сам Алтман да прекара четири дни в изгнание, както го нарича Ройтерс, служители на компанията изразили тревога, че разработван модел може да представлява заплаха за света. Моделът се казва Q* и – както се твърди – е в състояние да реши прости математически задачи, които вижда за първи път. Това е модел, който не работи на статистически принцип, както ChatGPT, а на принципа на правила и логика.

Способността на изкуствения интелект да решава задачи се смята за ключов етап в развитието му, който би довел до появата на така наречения генеративен изкуствен интелект – това е мощна машина, която може да изпълнява широк диапазон от задачи по начин, характерен за човешкия интелект, но на ниво, което значително го надвишава.

Много експерти смятат, че компаниите, разработващи изкуствен интелект, трябва да забавят развитието на тези технологии, докато бъдат изяснени и предотвратени рисковете за човечеството.

През изминалата година след пускането на пазара на ChatGPT, Сам Алтман многократно е предупреждавал на срещи със световни лидери, както и на изслушване пред комисия на американския Сенат за рисковете от развитието на Изкуствения интелект.

„Най-големият ми страх е, ние, технологичната индустрия да не причиним сериозна беда на света. Това би могло да стане по много различни начини. Ако нещо с технологията се обърка, ще се обърка страшно! И ние искаме да говорим открито за това. Искаме да работим с правителството, за да предотвратим подобен развой“, заяви главният изпълнителен директор на OpenAI Сам Алтман.

OpenAI уверява, че ще работи за безопасен изкуствен интелект, който да облагодетелства хората. Докато Европейският съюз изработи свой закон за изкуствения интелект, в САЩ все още се води дискусия как и дали да се въведе регулация.

„Цял хор от гласове призовава за регулиране на изкуствения интелект. Но трябва да има известна яснота какво значи това, кои аспекти трябва да регулираме? Кои аспекти са рискови? Дали е унищожаването на работни места? Дали е всяването на предразсъдъци и дискриминацията? Защото за всеки отделен аспект трябва отделен подход на регулация. Много е важно да не размахваме огромен чук, само защото всичко ни прилича на пирон. Важно е да има нюанси, защото иначе регулацията може да не разреши определения проблем“, каза проф. Сара Крепс от Корнълски университет.

Според някои анализатори, причината за кадровите сътресения в компанията се дължат на сериозни разногласия по отношение на това с каква скорост и с какви предпазни мерки да се върви напред в развитието на изкуствения интелект.

БНТ





Категория Матрица
Източник : | Снимка :
2023/11/30 последна редакция в 4:00 PM

Подобни публикации


Редакционният екип на Е Вести Лондон би искал да предостави на всички свои читатели от Лондон и целия свят възможността да участват активно в развитието на сайта! Ако си видял нещо интересно, забавно, скандално - просто нещо, което си заслужава да видят повече хора. Снимай го и го сподели в Е Вести Лондон заедно с кратък текст.

Имате информация, която искате да достигне до нашите читатели?

Изпрати статия

Спонсорирани връзки