Budujemy potencjał Polski w zakresie badań, polityki i zarządzania bezpieczeństwem AI.
Oto argument, dlaczego powinniśmy się tym przejmować.
Systemy AI znacznie mądrzejsze od ludzi mogą powstać wkrótce. AI rozwija się bardzo szybko, i ten postęp może doprowadzić do stworzenia AI na poziomie człowieka — ale to nie jest granica. Wkrótce potem prawdopodobnie pojawi się superinteligentna AI.
Te systemy mogą stać się naszymi przeciwnikami. Systemy AI mogą realizować własne cele, które nie będą zgodne z naszymi, co może doprowadzić do konfliktu z ludzkością.
Konsekwencje mogą być poważne, włącznie z wyginięciem ludzkości. AI może nas pokonać i przejąć kontrolę, co doprowadziłoby do wyginięcia ludzkości lub trwałej katastrofy. Nawet jeśli tego unikniemy, AI wciąż będzie miała ogromny wpływ na świat — zarówno ryzyka, jak i ogromne korzyści, jeśli zostanie rozwinięta w sposób bezpieczny.
Musimy działać razem. Eksperci są zaniepokojeni, ale ludzkość nie ma jeszcze realnego planu, by zapobiec katastrofie — i Ty możesz pomóc.
Dążymy do:




