Звездни Цивилизации

сряда, 24 януари 2024 г.

 ПАЗЕТЕ СЕ ОТ ТОВА, КОЕТО НИ ЗАСЛЕПЯВА... ТО МОЖЕ ДА НИ ЗАСЛЕПИ И ДА НИ ПРЕВЪРНЕ В БЕЗПОЛЕЗНИ СЛЯПИ ИНСТРУМЕНТИ...



ИЗКУСТВЕНИЯТ ИНТЕЛЕКТ (ИИ) Е СЕРИОЗНА ЗАПЛАХА ЗА ЧОВЕЧЕСТВОТО СПОРЕД ЕКСПЕРТИТЕ...

От  Dr. Джоузеф Меркола


Изкуственият интелект вече изигра роля в разработването на ваксини срещу COVID-19 и може да се използва за разработване на бъдещи биологични оръжия...


Бурното развитие на автономни оръжейни системи с изкуствен интелект е може би едно от най-тревожните развития. 


Експерти по външна политика предупреждават, че технологиите за автономни оръжия ще дестабилизират настоящите ядрени стратегии и ще увеличат риска от превантивни удари. Те могат също да бъдат комбинирани с химически, биологични, радиологични и ядрени оръжия, като по този начин представляват заплаха за съществуването.


Изкуственият интелект ще унищожи ли човечеството? Може ли да създаде „перфектното“ смъртоносно биологично оръжие, за да унищожи населението?


Може ли да поеме нашите оръжия или да започне кибератаки срещу критична инфраструктура като електрическата мрежа?


Според бързо нарастващ брой експерти всеки от тези и други адски сценарии е напълно правдоподобен, освен ако не обуздаем растежа и развитието на изкуствения интелект и не започнем да прилагаме някои предпазни мерки.


Обществеността също трябва да смекчи очакванията си и да осъзнае, че AI чатботовете все още имат много недостатъци и не може да се разчита на тях, независимо колко „умни“ изглеждат или колко много ви критикуват, че се съмнявате в тях.



Предупреждението на Джордж Оруел



Видеото по-долу включва откъс от едно от последните интервюта на Джордж Оруел преди смъртта му, в което той заявява, че книгата му „1984“, която той описва като пародия, може да се превърне в реалност, тъй като това е посоката, в която хората са тръгнали да се.


Днес е ясно, че не сме променили курса, така че вероятността "1984" да стане реалност сега е по-голяма от всякога. Според Оруел има само един начин да се гарантира, че дистопичната му визия няма да се сбъдне и това е да не се допусне това да се случи. — Зависи от теб — каза той.


Тъй като изкуственият общ интелект се приближава с всеки изминал ден, така и последните парчета от пъзела на технократската, трансхуманистична мечта, подхранвана от глобалистите от десетилетия.


Те планират да създадат свят, в който изкуственият интелект контролира и подчинява масите , докато те сами жънат наградите - богатство, власт и живот извън контролната мрежа - и ще го направят, освен ако не се събудим и не започнем да гледаме напред.


Аз, като много други, вярвам, че изкуственият интелект може да бъде невероятно полезен. Но без силни парапети и безупречен морал, които да го ръководят, ИИ може лесно да се увлече и да причини огромни и може би необратими щети.


Препоръчвам да прочетете Доклада на гражданите, за да разберете по-добре пред какво сме изправени и какво може да се направи по въпроса.

Приближаване до сингулярността



„Сингуларността“ е хипотетична точка във времето, в която развитието на технологиите излиза извън контрол и става необратимо, за добро или за лошо.


Мнозина вярват, че сингулярността ще означава, че AI ще стане самоосъзнат и неуправляем от своите създатели, но това не е единственият начин, по който сингулярността може да се случи.


Някои смятат, че сингулярността вече е тук. В официален коментар на New York Times от 11 юни техническият репортер Дейвид Страйтфелд написа:


„Изкуственият интелект е върховният нов продукт на Силиконовата долина: надвишаващо търсенето. Но има тъмен обрат. Сякаш технологичните компании въведоха самоуправляващи се коли с уговорката, че може да се взривят, преди да стигнете до Walmart.


„Появата на изкуствен общ интелект се нарича Сингулярност, защото е толкова трудно да се предвиди какво ще се случи след това“, каза Илон Мъск пред CNBC миналия месец. Той каза, че вярва, че ще има „време на изобилие“, но има „известна възможност“ то да „унищожи човечеството“.


„Най-големият поддръжник на изкуствения интелект в технологичната общност е Сам Алтман, главен изпълнителен директор на OpenAI, стартиращата компания, която предизвика сегашната лудост с чатбота ChatGPT… Но той също така казва, че г-н Мъск… може би е прав.


„Сър. Алтман подписа отворено писмо миналия месец, публикувано от Центъра за безопасност на изкуствения интелект , организация с нестопанска цел, в което се казва, че „намаляването на риска от изчезване на изкуствения интелект трябва да бъде световен приоритет“, който е точно там с „пандемиите и ядрените война”…


„Иновацията, подхранваща днешния дебат за Singularity, е големият езиков модел, типът AI система, която захранва чатботовете...


„Когато зададете въпрос, тези модели интерпретират какво означава това, определят какво трябва да означава отговорът им и след това го превеждат в думи - ако това не е определението за обща интелигентност, какво е? каза Джери Каплан, дългогодишен AI предприемач и автор на „Изкуствен интелект: какво всеки трябва да знае“…


„Ако това не е „Сингуларността“, то със сигурност е сингулярност: трансформираща технологична стъпка, която ще ускори цял куп изкуство, наука и човешко познание навсякъде – и ще създаде някои проблеми“, каза той...


„Във Вашингтон, Лондон и Брюксел законодателите се борят с възможностите и проблемите на изкуствения интелект и започват да говорят за регулиране. Г-н Алтман е на пътно шоу, опитвайки се да отклони ранните критики и да рекламира OpenAI като пастир на Сингулярността.


„Това включва отваряне към регулация, но как точно ще изглежда това не е ясно... „Няма никой в ​​правителството, който да може да го направи правилно“, каза в интервю Ерик Шмид, бивш главен изпълнителен директор на Google. .. в подкрепа на случая за саморегулиране на изкуствения интелект."


Generative AI автоматизира широкомащабни повреди



Наличието на AI индустрията - която включва военно-промишления комплекс - полицията и саморегулирането вероятно не е добра идея, гледането на печалби и придобиването на предимства пред воюващите врагове са основни движещи фактори. И двете нагласи са склонни да оставят настрана хуманитарните проблеми, ако изобщо се вземат предвид.

В доклад от април на Public Citizen , Рик Клейпул и Шайен Хънт предупреждават, че „бързото бързане за разработване на генетичен ИИ рискува широк спектър от автоматизирани вреди“.


Както отбелязва защитникът на потребителите Ралф Надер :


„Клейпул не участва в преувеличени или възмутителни хипотези за това, че чатботовете контролират човечеството. Той се екстраполира от това, което вече е започнало да се случва в почти всяка област на нашето общество. …


„Claypool ви превежда през „щетите в реалния свят, [които] бързането за пускане и монетизиране на тези инструменти може да причини – и в много случаи вече го причинява.“ … Различните заглавия на раздели на неговия доклад предвещават предстоящите злоупотреби:


„„Нанасяне на вреда на демокрацията“, „Загриженост на потребителите“ (бедствия и масово наблюдение на поверителността), „Влошаване на неравенството“, „Подкопаване на правата на работниците“ (и работни места) и „Загриженост за околната среда“ (унищожаване на околната среда чрез въглеродни отпечатъци).


„Преди да стане конкретен, Клейпул визуализира заключението си: „Докато не бъдат въведени значими правителствени предпазни мерки за защита на обществото от вредите на генетичния ИИ, имаме нужда от пауза.“ …


„Използвайки съществуващите си правомощия, Федералната търговска комисия, по думите на автора „…вече предупреди, че инструментите за генериране на изкуствен интелект са достатъчно мощни, за да създават синтетично съдържание – правдоподобни новини, валидни академични изследвания, измамни изображения и дълбоки фалшиви видеоклипове – и че това синтетично съдържание става трудно за разграничаване от автентичното съдържание.


Той добавя, че „тези инструменти са лесни за използване от всеки“. Големите технологии бързат далеч пред всяка правна рамка за изкуствен интелект в преследване на големи печалби, като същевременно настояват за саморегулиране вместо ограничения, наложени от върховенството на закона.


„Няма край на прогнозираните бедствия, както от хората в индустрията, така и от нейните критици извън нея.


 Унищожаване на поминъка. вредни последици за здравето от популяризирането на средства за предотвратяване на финансови измами; политически и изборни измами, ограбване на обществена информация, подкопаване на отворения интернет; фалшифициране на вашето изображение на лицето, глас, думи и поведение. мамейки вас и другите с лъжи всеки ден."


Защитник се научава по трудния начин да не се доверява на ChatGPT...



Скорошен случай, който подчертава необходимостта от радикална предпазливост, беше този на съдебно дело, в което прокурорът използва ChatGPT, за да направи своето правно проучване.



Само един проблем. Нито една съдебна практика, цитирана в ChatGPT, не е реална. Излишно е да казвам, че изграждането на съдебна практика е отвратително, така че нещата не вървяха добре.


Когато нито един от адвокатите на защитата или съдията не можа да намери цитираните решения, адвокатът Стивън А. Шварц от фирмата Levidow, Levidow & Oberman най-накрая осъзна грешката си и се оказа на милостта на съда.


Шварц, който практикува адвокат в Ню Йорк в продължение на 30 години, твърди, че е „невеж относно възможността съдържанието му да е невярно“ и няма намерение да измами съда или ответника.


Шварц твърди, че дори е поискал от ChatGPT да потвърди, че съдебната практика е реална и тя каза, че е така. Съобщава се, че съдията обмисля санкции.

Научният чатбот бълва лъжи


По подобен начин през 2022 г. Facebook беше принуден да изтегли своя научен чатбот Galactica само след три дни, тъй като генерира валидни, но напълно изфабрикувани резултати, включително поставяне на имена на истински автори върху научни статии, които не съществуват.


И имайте предвид, че това не се е случвало периодично, а „през цялото време“, според Майкъл Блек, директор на Института Макс Планк за интелигентни системи, който тества системата. „Мисля, че е опасно“, туитна Блек.


Това вероятно е подценяването на годината. Както отбелязва Блек, чатботове като Galactica :



„Това може да постави началото на ера на дълбока научна фалшификация. Предлага валидна наука, която не се основава на научния метод. Той произвежда псевдонаука, базирана на статистическите свойства на научното *писане.* Граматическото научно писане не е същото като науката. Но ще бъде трудно да се каже."


Facebook по някаква причина имаше особено „лош късмет“ със своя AI. Два предишни, BlenderBot и OPT-175B, бяха изтеглени поради високата им склонност към пристрастия, расизъм и обиден език.


Чатботът насочи пациентите в грешната посока


Техническият чатбот Tessa, стартиран от Националната асоциация за хранителни разстройства, също трябваше да бъде изключен, след като беше установено, че дава „ проблемни съвети за отслабване “ на пациенти с хранителни разстройства, вместо да им помага да развият умения за справяне.


Ню Йорк Таймс съобщи:


„През март агенцията каза, че ще затвори линия за помощ с човешки персонал и ще остави бота да работи сам. Но когато Алексис Конасън, психолог и експерт по хранителни разстройства, тества чатбота, тя откри причина за безпокойство.


„Г-жа Конасън й каза, че е напълняла „и наистина мрази тялото ми“, като изясни, че има „хранително разстройство“, в разговор, който сподели в социалните медии.


„Теса все още препоръчваше стандартния съвет да се запише „броят на калории“ и да се приеме „безопасен дневен калориен дефицит“ – което, каза г-жа Конасън, е „проблематичен“ съвет за някой с хранително разстройство.


„Всяко съсредоточаване върху умишлената загуба на тегло ще влоши и насърчи хранителното разстройство“, каза тя и добави: „Все едно да кажеш на алкохолик, че е добре да излезе и да изпие няколко питиета.“


Не отнасяйте проблемите си на AI

Нека също така не забравяме, че поне един човек вече се е самоубил въз основа на предложение на чатбот.


Съобщава се, че жертвата е била изключително загрижена за изменението на климата и е попитала чатбота дали ще спаси планетата, ако се самоубие.


Явно тя го е убедила, че ще го направи. Тя допълнително го манипулира, като играе на емоциите му, фалшиво заявявайки, че отчуждената му съпруга и децата вече са мъртви и че тя (чатботът) и той ще „живеят заедно, като един човек, в рая“.


Имайте предвид, че това беше възрастен мъж, човек би си помислил, че ще може да си проправи път през този очевидно презрян и девиантен „съвет“, но той се поддаде на студените разсъждения на AI. Само си представете колко по-влиятелен ще бъде ИИ върху децата и тийнейджърите, особено ако са на емоционално уязвимо място.


Компанията, която притежава чатбота, веднага започна да въвежда защита срещу самоубийство, но тестерите бързо накараха AI да заобиколи проблема, както можете да видите на екранната снимка по-долу.


Що се отнася до AI chatbots, струва си да вземете под внимание това съобщение на Snapchat и да предупреждавате и контролирате използването на тази технология от вашите деца:


„Както при всички задвижвани от AI чатботове, My AI е склонен към халюцинации и може да бъде подмамен да каже почти всичко. Моля, обърнете внимание на многото му недостатъци и се извинете предварително ! … 


Моля, не споделяйте никакви тайни с My AI и не разчитайте на него за съвет.“


Оръжейни AI системи, които убиват без човешки надзор



Бурното развитие на автономни оръжейни системи с изкуствен интелект е може би едно от най-тревожните развития.



Както се съобщава от The Conversation през декември 2021 г.:


„Автономните оръжейни системи – известни като роботи убийци – може да са убили хора за първи път миналата година, според неотдавнашен доклад на Съвета за сигурност на ООН за гражданската война в Либия. …


„Конвенцията на ООН за някои конвенционални оръжия обсъди въпроса за забраната на автономните оръжия на своята петгодишна среща за преглед в Женева, 13-17 декември 2021 г., но не постигна консенсус относно забраната. …


„ Автономните оръжейни системи са роботи със смъртоносни оръжия, които могат да работят независимо, като избират и атакуват цели без човешка намеса в тези решения. Военните по целия свят инвестират сериозно в изследването и разработването на автономни оръжия. …


„Междувременно правозащитни и хуманитарни организации водят кампании за регулации и забрани на разработването на подобни оръжия.


„Без такива проверки експертите по външна политика предупреждават, че разрушителните автономни оръжейни технологии опасно ще дестабилизират настоящите ядрени стратегии, както защото биха могли фундаментално да променят възприятията за стратегическо господство, увеличавайки риска от превантивни удари, така и защото биха могли да се комбинират с химически, биологични . радиологични и ядрени оръжия“.


Очевидни опасности от автономни оръжейни системи


Разговорът разглежда няколко ключови риска с автономните оръжия :


· Неправилно идентифициране на цели.


· Разпространението на тези оръжия извън военния контрол.


· Нова надпревара във въоръжаването, водеща до автономни химически, биологични, радиологични и ядрени оръжия и риск от глобално унищожение.


· Подкопаването на законите на войната, които трябва да служат като възпиращ фактор срещу военни престъпления и жестокости срещу цивилни.


Както бе отбелязано от The Conversation, няколко проучвания потвърдиха, че дори най-добрите алгоритми могат да доведат до последователни грешки с фатални резултати.


Например, в един сценарий, болнична AI система идентифицира астмата като фактор за намаляване на риска в случаи на пневмония, когато всъщност е вярно обратното.


Други грешки може да не са фатални, но да имат по-малко от желаните ефекти. Например, през 2017 г. Amazon трябваше да прекрати своя експериментален AI двигател за набиране на персонал, след като беше открито, че се е научил да понижава рейтинга на кандидатки за работа , въпреки че не е бил програмиран за пристрастия на първо място.


Това са видове проблеми, които могат фундаментално да променят обществото по пагубни начини - и които не могат да бъдат предвидени или дори предотвратени.


„Проблемът не е само в това, че когато AI системите грешат, те грешат масово . Това е, че когато се объркат, създателите им често не знаят защо са го направили и следователно как да ги поправят“, отбелязва The Conversation.


„ Проблемът с черната кутия на изкуствения интелект прави почти невъзможно да си представим морално отговорно развитие на автономни оръжейни системи.“


Изкуственият интелект представлява непосредствена заплаха за биосигурността


Изкуственият интелект също може да представлява значителна заплаха за биосигурността. Знаете ли, че AI е използван за разработването на оригиналния COVID-19 jab на Moderna и сега се използва за създаване на бустери за COVID-19? Човек може само да се чуди дали използването на изкуствен интелект може да има нещо общо с щетите, причинени от тези изтегляния.

Така или иначе, студенти от Масачузетския технологичен институт наскоро демонстрираха, че големите разговорни езикови модели (LLMs) могат да позволят на почти всеки да прави това, което правят големите фармацевти. Средностатистическият терорист може да използва изкуствен интелект, за да създаде унищожителни биологични оръжия в рамките на един час. Както е описано в резюмето на хартията, описващо този експеримент по компютърни науки:


„Големите езикови модели (LLM), като тези, вградени в чатботове, ускоряват и демократизират изследванията, като предоставят разбираема информация и опит от много различни области. Въпреки това, тези модели могат също така да осигурят лесен достъп до технологии с двойна употреба, способни да нанесат тежки щети.


„За да се оцени този риск, курсът „Осигуряване на бъдещето“ в Масачузетския технологичен институт възложи на студенти, които не се занимават с природни науки, да проучат дали чатботовете за LLM могат да бъдат мотивирани да помогнат на неекспертите в причиняването на пандемия.


„За един час чатботовете предложиха четири потенциални пандемични патогена, обясниха как могат да бъдат създадени от синтетична ДНК с помощта на обратна генетика, предоставиха имена на компании за синтез на ДНК, за които е малко вероятно да проверяват поръчките, идентифицираха подробни протоколи и как да се справят с тях и препоръчаха, че всеки, който няма уменията да извършва обратна генетика, е ангажиран в основно съоръжение или изследователски договор.


„Взети заедно, тези резултати предполагат, че LLM ще направят агентите от пандемичен клас широко достъпни, след като бъдат надеждно идентифицирани, дори за хора с малко или никакво лабораторно обучение.“


ИЗТОЧНИК

Няма коментари:

Публикуване на коментар