10 смъртоносни технологии, застрашаващи целия свят

17.09.2014, 17:16

Въпрос на време е да се появят

   
 
10 смъртоносни технологии, застрашаващи целия свят

Всички ние все повече започваме да осъзнаваме какви фантастични възможности ни предоставят новите технологии. Те се развиват със страхотни темпове и това ни дава възможност да виждаме ясно постоянните подобрения и революционни постижения. Едновременно с това обаче ясно се забелязват и неприятните, даже опасни възможности пред технологичния напредък. И може би, ако се замислим сериозно, не бива да създаваме неща, които реално застрашават човечеството. Като следващите:

1. Нанотехнологично оръжие

Нищо няма да може така успешно и бързо да заличи човечеството от оръжията. Освен опасно насочената нанотехнология. Опасността идва от две посоки - човешко репродуциране и прогресивен растеж. Теоретикът Робърт Фрейтас е проучил няколко възможни сценария с главното участие на нанотехнология, която убива планетата ни, включително и вариант с биомасови убийци. Аероворите например, наричани още "сив прах", могат да блокират цялата слънчева светлина, "сивият" планктон би представлявал саморепродуциращи се и разрастващи се организми, които се хранят с всичко живо под водата, "сивите" лишеи биха унищожили наземната геология, а биомасовите убийци биха атакували точно определени организми. Според Фрейтас на възможно най-лошия сценарий ще са му нужни 20 месеца, за да си свърши работата, което все пак е добър период за адекватна реакция от човечеството. Очаква се в следващите няколко години да се подпише мораториум върху развиването на нанотехнологични оръжия.

2. Съзнателни машини

Развитите общества сякаш са взели за съвсем естествена възможността съвсем скоро да започнем да си служим все повече с машини, притежаващи изкуствен интелект. Трябва обаче да се помисли сериозно по този въпрос, защото може би е прекалено жестоко да създадеш функциониращо съзнание и мисловна дейност, затворени в компютър. Вече се водят все по-оживени спорове доколко подобно решение е етично. Хуманно ли е да развиеш софтуер, който може да страда? На нас ни звучи като робство в съвременен вариант.

3. Изкуствен суперинтелект

Както Стивън Хокинг обяви по-рано през годината, изкуственият интелект може да се окаже най-голямата грешка в цялата история на човечеството. Специалистите, които работят над развиването и подобряването на изкуствения интелект, са съгласни, че създаването на по-умни и по-бързи от човешкия мозък системи биха накарали хората да отстъпят назад. Едва ли не всички ще зависим от решенията на този глобален изкуствен интелект, защото никой не може да гарантира, че суперинтелектът, който се развие, ще е задължително приятелски настроен.

4. Пътуване във времето

Ако изобщо стане възможно да се пътува във времето, най-добре всички да стоим далеч от подобни "екскурзийки". Подобни начинания биха били изключително опасни, най-малкото заради възможните технически проблеми, които биха настъпили.

5. Устройства, които четат мисли

Вече съществуват разработки за машини, които да могат да четат човешки мисли и спомени от разстояние и без "сканираният" човек да осъзнава какво му се случва. Тази технология вероятно няма да е възможна, преди човешкият мозък да бъде свързан с мрежата или други комуникационни канали. Но само си представете една такава технология да попадне в ръцете на някой диктатор например... опасността вече ви се изяснява, нали? Много поздрави на Оруел.

1391225

6. Устройства за хакване на мозъци

Да не мислите, че ще ни се размине само с четене на мисли. Следващата крачка е създаване на машини, които могат да "хакват" мозъците ни и да променят информацията в тях. Това би могло да се случи с чипиране, което ще рече, че човешките същества няма да имат реална възможност за самозащита, защото няма да разбират, че някой бърника в главата им.

7. Автономни роботи, създадени да убиват хора

Това си е наистина плашеща технологична възможност, която хич не е имагинерна. Дори и в момента някъде по света една такава машина, създадена да участва във военни действия, действа по план, макар и с напътствията на някой човешки "колега". Дори не е необходим някакъв страхотен изкуствен интелект, за да програмираш робот да убива хора. Просто се задават определени параметри и той започва да действа. В момента е напълно възможно някой да си направи роботизирани танкове, кораби, подводници и хуманоидни роботи. На тях няма да им е нужно разрешение за стрелба.

8. Нарочно заразяване

Публичното разкриване на генома на смъртоносни вируси е изключително опасно начинание, защото винаги съществува възможността някой идиот или фанатизирана група да вземе информацията и или да реконструира вируса, или дори да го развие в нещо още по-ужасно. А след това просто да го пусне сред хората. Разбира се, за да разбереш как да се бориш с врага, трябва да имаш реална представа от него, така че подобни експерименти с опасни вируси са разбираеми, но едновременно с това опасността, че проектът може да излезе извън лабораторията и да попадне в недоброжелателни ръце също е реална.

9. Виртуални затвори и наказания

Какви биха били затворите и наказанията за престъпниците, когато хората започнат да живеят по стотици или хиляди години? Най-вероятно тогава всичко ще се случва във виртуалната реалност, което ще рече, че и затворите ще се пренесат онлайн. Но тогава ще говорим за присъди от по 100-200 години (които не са доживот). Ще бъде ли възможно поддържането на такова дългогодишно затворническо съществуване от чисто човешка гледна точка? И какво ще се случва с мозъците на завторниците, "лежали" 200 години? Много въпроси и нито един отговор.

10. Създаване на виртуален Рай

Да, има такава идея. Тя, разбира се, е насочена към бъдещите времена, когато се смята, че хората ще могат да живеят вечно. И, ако им писне, ще могат да се оттеглят в Рая. Но щом може да бъде създаден Раят, това значи, че Ад също ще се появи. Никой няма да иска да отиде в Ад-а доброволно, което пък ни подсказва, че хората ще бъдат "тикани" там против волята им...

Източник: io9

   
 
ДОБАВИ КОМЕНТАР 
Моля, пишете на кирилица! Коментари, написани на латиница, ще бъдат изтривани.

НАЙ-ЧЕТЕНИТЕ