OpenAI работели по модел, застрашаващ човечеството

      Публикувано на четвъртък, 30 ноември , 2023      43 Прегледа     
OpenAI работели по модел, застрашаващ човечеството

  • Матрица

На фона на трусовете в ръководството на OpenAI стана ясно, че създателите на ChatGPT са работели по проект за изкуствен интелект, който сериозно би могъл да застраши човечеството. За това са предупредили в писмо до ръководството на компанията няколко нейни служители.



Реклама


Новината беше съобщена от Ройтерс, като агенцията се позова на свои източници, но с уточнението, че няма достъп до писмото и нито работещи в OpenAI, нито от ръководството и са коментирали темата.

Преди шефът на ОpenAI Сам Алтман да прекара четири дни в изгнание, както го нарича Ройтерс, служители на компанията изразили тревога, че разработван модел може да представлява заплаха за света. Моделът се казва Q* и – както се твърди – е в състояние да реши прости математически задачи, които вижда за първи път. Това е модел, който не работи на статистически принцип, както ChatGPT, а на принципа на правила и логика.

Способността на изкуствения интелект да решава задачи се смята за ключов етап в развитието му, който би довел до появата на така наречения генеративен изкуствен интелект – това е мощна машина, която може да изпълнява широк диапазон от задачи по начин, характерен за човешкия интелект, но на ниво, което значително го надвишава.

Много експерти смятат, че компаниите, разработващи изкуствен интелект, трябва да забавят развитието на тези технологии, докато бъдат изяснени и предотвратени рисковете за човечеството.

През изминалата година след пускането на пазара на ChatGPT, Сам Алтман многократно е предупреждавал на срещи със световни лидери, както и на изслушване пред комисия на американския Сенат за рисковете от развитието на Изкуствения интелект.

“Най-големият ми страх е, ние, технологичната индустрия да не причиним сериозна беда на света. Това би могло да стане по много различни начини. Ако нещо с технологията се обърка, ще се обърка страшно! И ние искаме да говорим открито за това. Искаме да работим с правителството, за да предотвратим подобен развой”, заяви главният изпълнителен директор на OpenAI Сам Алтман.

OpenAI уверява, че ще работи за безопасен изкуствен интелект, който да облагодетелства хората. Докато Европейският съюз изработи свой закон за изкуствения интелект, в САЩ все още се води дискусия как и дали да се въведе регулация.

“Цял хор от гласове призовава за регулиране на изкуствения интелект. Но трябва да има известна яснота какво значи това, кои аспекти трябва да регулираме? Кои аспекти са рискови? Дали е унищожаването на работни места? Дали е всяването на предразсъдъци и дискриминацията? Защото за всеки отделен аспект трябва отделен подход на регулация. Много е важно да не размахваме огромен чук, само защото всичко ни прилича на пирон. Важно е да има нюанси, защото иначе регулацията може да не разреши определения проблем”, каза проф. Сара Крепс от Корнълски университет.

Според някои анализатори, причината за кадровите сътресения в компанията се дължат на сериозни разногласия по отношение на това с каква скорост и с какви предпазни мерки да се върви напред в развитието на изкуствения интелект.

БНТ



Етикети:
Категория Матрица | 2023/11/30 последна редакция в 4:00 PM
Източник : | Снимка :
44 Прегледа



БГ Медия - Медия за Българите в Лондон

Подобни публикации


Живот и Работа в Лондон - Често задавани Въпроси

Актуална и полезна информация за Българите във Великобритания. Новини за Българите в Лондон. Списък с най-често задаваните въпроси за намиране на работа във Великобритания. Полезна информация при подготовка на документи за работа и престой във Великобритания.


Редакционният екип на Е Вести Лондон би искал да предостави на всички свои читатели от Лондон и целия свят възможността да участват активно в развитието на сайта! Ако си видял нещо интересно, забавно, скандално - просто нещо, което си заслужава да видят повече хора. Снимай го и го сподели в Е Вести Лондон заедно с кратък текст.

Имате информация, която искате да достигне до нашите читатели?

Изпрати статия

Спонсорирани връзки