Singularitas Teknologi, atau hanya “Singularitas,” adalah konsep multi-segi dalam futurisme dengan beberapa definisi yang tumpang tindih dan terkadang bertentangan. Definisi Singularitas yang paling tepat dan menonjol diberikan oleh Vernor Vinge dalam esainya, The Coming Technological Singularity. Ini mengacu pada titik di mana kecerdasan manusia super diciptakan secara teknologi. Kecerdasan manusia super ini kemudian dapat menerapkan kekuatan otak dan keahlian mereka untuk tugas menciptakan kecerdasan manusia super tambahan atau lebih kuat, menghasilkan efek bola salju dengan konsekuensi di luar kemampuan kita saat ini untuk membayangkan.
Istilah “Singularitas Teknologi” diciptakan dengan analogi singularitas di pusat lubang hitam, di mana kekuatan alam menjadi begitu kuat dan tak terduga sehingga kemampuan kita untuk menghitung perilaku materi dalam keadaan ini turun ke nol. Sering disebutkan dalam hubungannya dengan gagasan kecerdasan manusia super dalam dialog Singularitas adalah gagasan tentang percepatan perubahan teknologi. Beberapa orang berpendapat bahwa ketika kemiringan kemajuan teknologi meningkat, itu akan berujung pada asimtot, mirip secara visual dengan singularitas matematis.
Namun, gagasan tentang singularitas ini tidak sama dengan yang dimaksudkan Vinge; mengacu pada munculnya kecerdasan manusia super, seiring dengan kecepatan berpikir manusia super. (Termasuk kecerdasan, kemampuan untuk memahami dan menciptakan konsep, mengubah data menjadi teori, membuat analogi, berkreasi, dan sebagainya.) Meskipun kecerdasan manusia super yang menciptakan kecerdasan manusia super tambahan memang akan menghasilkan percepatan kemajuan teknologi, kemajuan tidak akan menjadi tanpa batas, dalam arti bahwa singularitas matematika akan menyarankan.
Karena kecerdasan manusia super, menurut definisi, akan lebih pintar daripada manusia mana pun, kemampuan kita untuk memprediksi apa yang akan mereka mampu dengan sejumlah waktu, materi, atau energi tertentu tidak mungkin akurat. Kecerdasan manusia super mungkin dapat membuat superkomputer yang berfungsi dari komponen yang murah dan tersedia, atau mengembangkan nanoteknologi lengkap hanya dengan mikroskop kekuatan atom. Karena kemampuan kecerdasan manusia super untuk merancang dan membuat perangkat teknologi akan dengan cepat melampaui upaya terbaik para insinyur manusia, kecerdasan manusia super bisa jadi merupakan penemuan terakhir yang perlu dibuat oleh umat manusia. Karena kejeniusan manusia super mereka dan teknologi yang dapat mereka kembangkan dengan cepat, tindakan kecerdasan yang muncul dari Singularitas Teknologi dapat mengakibatkan kepunahan atau pembebasan seluruh spesies kita, tergantung pada sikap kecerdasan manusia super yang paling kuat terhadap manusia.
Filsuf Oxford Nick Bostrom, direktur Oxford Future of Humanity Institute dan Organisasi Transhumanis Dunia, berpendapat bahwa cara kecerdasan manusia super memperlakukan manusia akan bergantung pada motivasi awal mereka pada saat penciptaannya. Kecerdasan manusia super yang baik hati, dalam keinginan untuk melestarikan kebaikannya, akan melahirkan versi-versi yang baik (atau lebih baik) dari dirinya sendiri saat spiral perbaikan diri berlanjut. Hasilnya bisa menjadi surga di mana kecerdasan manusia super memecahkan masalah dunia dan menawarkan peningkatan kecerdasan konsensual kepada manusia. Di sisi lain, kecerdasan manusia super yang jahat atau acuh tak acuh kemungkinan besar akan menghasilkan lebih banyak hal yang sama, yang mengakibatkan kehancuran kita yang tidak disengaja atau disengaja. Untuk alasan ini, Singularitas Teknologi mungkin menjadi satu-satunya tonggak terpenting yang pernah dihadapi spesies kita.
Beberapa jalan menuju kecerdasan manusia super telah diusulkan oleh para analis dan pendukung Singularity. Yang pertama adalah IA, atau Intelligence Amplification, mengambil manusia yang ada dan mengubahnya menjadi bukan manusia melalui bedah saraf, antarmuka otak-komputer, atau bahkan mungkin antarmuka otak-otak. Yang lainnya adalah AI, atau Kecerdasan Buatan, penciptaan sistem kognitif dinamis yang melampaui manusia dalam kemampuannya untuk membentuk teori dan memanipulasi kenyataan. Kapan salah satu dari teknologi ini akan mencapai ambang tingkat kecanggihan yang diperlukan untuk menghasilkan kecerdasan manusia super tidak pasti, tetapi berbagai ahli, termasuk Bostrom, menyebutkan tanggal dalam kisaran 2010-2030 sebagai kemungkinan.
Karena Singularitas mungkin lebih dekat daripada yang diperkirakan banyak orang, dan karena motivasi awal kecerdasan manusia super pertama dapat menentukan nasib spesies manusia kita, beberapa aktivis-filsuf (“Singularitarian”) memandang Singularitas tidak hanya sebagai topik spekulasi dan diskusi, tetapi sebagai tujuan rekayasa praktis bahwa kemajuan yang berarti dapat dibuat menuju hari ini. Jadi, pada tahun 2000 Institut Singularitas untuk Kecerdasan Buatan didirikan oleh Eliezer Yudkowsky untuk bekerja secara eksklusif menuju tujuan ini.