ABSTRAK
Apakah etika agama memiliki sesuatu yang berarti untuk dikatakan tentang banyak pertanyaan metafisik, etika, dan teologis yang sulit seputar kecerdasan buatan (AI)? Keempat artikel yang ditampilkan dalam Edisi Fokus ini menunjukkan bahwa memang demikian. Esai Mariele Courtois berfokus pada pengembangan kehati-hatian sebagai kebajikan yang diperlukan untuk kehidupan moral dan menimbulkan kekhawatiran tentang bagaimana peningkatan ketergantungan pada AI dapat mendistorsi sifat penalaran moral praktis. Esai yang ditulis bersama oleh Paul Scherz dan Luis Vera menarik perhatian pada krisis yang muncul dari diri yang mengetahui di era pasca-kebenaran AI, dengan menyatakan bahwa diri menjadi terasing dari produksi pengetahuan. Esai Kevin Jung mengeksplorasi bagaimana bahasa dapat berfungsi sebagai jendela ke dalam pikiran buatan dan manusia, dengan mengambil wawasan dari Augustine dan Wittgenstein. Esai John Pittard meneliti kedudukan moral AGI dan mempertimbangkan alasan untuk dan menentang pengembangan mereka dari perspektif Kristen.
Bahasa Indonesia: Dalam sebuah artikel tahun 1988 tentang kecerdasan buatan (AI), filsuf Daniel Dennett mengajukan pertanyaan, “bagaimana mungkin benda fisik—seseorang, seekor hewan, sebuah robot—untuk mengekstrak pengetahuan tentang dunia dari persepsi dan kemudian mengeksploitasi pengetahuan itu dalam bimbingan tindakan yang berhasil?” (Dennett 1988 , 283). Dia kemudian dengan cepat menindaklanjuti dengan daftar panjang pertanyaan filosofis lain yang sudah dikenal: “Apa itu pikiran? Apa itu makna? Apa itu penalaran dan rasionalitas? Apa saja kondisi yang diperlukan untuk pengenalan objek dalam persepsi? Bagaimana keputusan dibuat dan dibenarkan?” (1988, 283). Pertanyaan-pertanyaan ini membentang dari epistemologi hingga filsafat bahasa dan dari filsafat pikiran hingga studi tentang alasan normatif. Hampir tidak ada area dalam filsafat dan etika yang tidak tersentuh oleh isu dan perhatian AI. Mengapa? Yah, kemungkinan besar karena AI secara metaforis dan harfiah merupakan tiruan dari kecerdasan alami manusia. Para pengembang AI ingin meniru dan mengganti banyak fungsi pikiran manusia, termasuk kemampuan kita untuk memahami, berpikir, dan berinteraksi dengan dunia, dengan pikiran buatan. Dan, baru-baru ini, mereka menemukan bahwa cara yang paling menjanjikan untuk mencapai tujuan ini secara lebih efisien adalah dengan menciptakan jaringan saraf buatan dengan mensimulasikan cara otak manusia memproses informasi dan memecahkan masalah yang rumit. Jadi, mengingat cara AI dirancang dan dikembangkan, masuk akal untuk mengharapkan bahwa berbagai masalah etika dan masalah lain yang sering dikaitkan dengan pikiran manusia juga akan muncul dengan pikiran buatan.
Banyak hal telah terjadi sejak 1988. AI bukan lagi eksperimen ilmu komputer baru di laboratorium universitas atau konsep fiksi ilmiah yang digunakan terutama untuk tujuan hiburan. Hampir semua orang menggunakannya saat ini, baik secara sadar maupun tidak sadar. Itu ada di ponsel pintar, TV, dan komputer kita, untuk sedikitnya. Meskipun para filsuf mungkin memulai lebih awal daripada para sarjana agama dalam membahas banyak pertanyaan normatif dan metafisik mengenai sifat dan penggunaan AI, sama sekali tidak jelas bahwa mereka telah membuat kemajuan yang berarti dalam menemukan jawaban yang memuaskan untuk pertanyaan-pertanyaan itu. Sebagian dari masalahnya adalah bahwa kita masih jauh dari pemahaman sepenuhnya tentang bagaimana pikiran manusia melakukan apa yang dilakukannya. Meskipun kita telah melihat dalam beberapa dekade terakhir kemajuan yang signifikan dalam memahami aspek struktural dan fungsional otak yang mendasari patologi dan disfungsi saraf, ada banyak pertanyaan filosofis, seperti yang tercantum di atas, tentang pikiran manusia yang masih menghindari penyelidikan dan penjelasan empiris.
Masuklah etika agama. Apakah etika agama memiliki sesuatu yang berarti untuk dikatakan tentang banyak pertanyaan metafisik, etika, dan teologis yang sulit seputar AI? Keempat artikel yang ditampilkan dalam Edisi Fokus ini menunjukkan bahwa memang demikian. Namun, artikel-artikel ini sangat beragam dalam fokus, metode, dan temanya sehingga saya tidak berusaha untuk memperkenalkan kesamaan apa pun di antara semuanya agar tidak melakukan ketidakadilan terhadap kekayaan setiap makalah. Perlu juga disebutkan bahwa keempat esai tersebut tidak memiliki gaya argumentasi filosofis yang sama. Sementara semua esai membahas pemikiran agama, dua esai pertama terutama berbincang dengan para pemikir dari tradisi filsafat kontinental, tetapi dua esai terakhir terutama membahas para pemikir dari tradisi analitis. Meskipun demikian, pembaca yang cerdik akan melihat beberapa area pertanyaan etika, agama, dan metafisik yang tumpang tindih (misalnya, praktik epistemik dalam masyarakat yang digerakkan oleh AI dan hakikat kesadaran manusia) dalam beberapa makalah ini, bahkan ketika setiap makalah mencoba membahas berbagai masalah dan tantangan yang ditimbulkan oleh AI yang berdampak pada etika agama. Harapan saya, keempat esai tersebut akan berguna untuk memulai perbincangan selanjutnya seputar AI di bidang etika agama.
Izinkan saya untuk mengambil jalan memutar cepat melalui etika normatif untuk lebih menghargai esai pertama dalam Isu Fokus ini. Menurut Teori Nalar Berbasis Nilai (teori tentang alasan normatif untuk bertindak), yang menjadi alasan seseorang untuk bertindak adalah didasarkan pada fakta evaluatif objektif (yaitu, beberapa keadaan yang secara intrinsik berharga) yang bertentangan dengan keinginan seseorang. Teori Nalar Berbasis Nilai adalah bentuk eksternalisme tentang alasan, dan dengan demikian, dianggap sebagai teori objektif tentang alasan normatif. Menurut Aristoteles dan Aquinas, suatu tindakan baik jika dan hanya jika tindakan itu berkontribusi pada eudaimonia (kemakmuran manusia). Menurut pandangan ini, ada keadaan yang secara intrinsik baik atau buruk, tergantung pada kontribusinya terhadap eudaimonia , apakah diinginkan atau menyenangkan. Kehati-hatian ( phronesis ) dianggap sebagai kebajikan yang diperlukan untuk memahami kebaikan dasar manusia, yang merupakan bagian dari keadaan yang secara intrinsik berharga yang diperlukan untuk eudaimonia .
Kita dapat mendekati esai Courtois dengan latar belakang Teori Nalar Berbasis Nilai, meskipun ia tidak mengartikulasikan pandangannya dalam istilah filosofis ini. Ia berpendapat bahwa hubungan interpersonal (manusia) diperlukan untuk menumbuhkan kehati-hatian yang tidak dapat digantikan oleh algoritma. Kehati-hatian, menurut Courtois, adalah kebajikan yang melibatkan “kemampuan untuk membuat keputusan praktis untuk menjalani kehidupan moral,” yang memungkinkan penerapan “pengetahuan tentang kebajikan pada pengalaman hidup seseorang” serta menentukan “bagaimana mencapai tujuan akhir tertentu.” Mengingat tempat kehati-hatian yang menonjol dalam kehidupan moral, ia menekankan bahwa ada praktik epistemik dan sosial tertentu yang harus dilestarikan untuk memastikan keberlanjutan penanaman kehati-hatian. Praktik-praktik ini, yang mencakup pembiasaan kerendahan hati dan interaksi sosial timbal balik, membutuhkan ruang interpersonal untuk pertemuan dengan orang lain di mana wacana otentik dengan orang lain memungkinkan untuk mencari nasihat dari dan menawarkan kritik kepada orang lain. Dalam konteks keagamaan, ruang interpersonal seperti itu juga penting untuk wacana doa dan ketergantungan pada contoh-contoh moral.
Dalam hal ini, Courtois melihat meningkatnya ketergantungan pada AI oleh individu sebagai sumber pengetahuan moral dan sebagai proses pengambilan keputusan moral sebagai hal yang cukup memprihatinkan. Ketergantungan buta pada teknologi untuk memperoleh pengetahuan moral dan mengganti penalaran moral interpersonal dan praktis kita dengan penalaran moral AI berbasis algoritma cenderung menghasilkan lebih dari sekadar informasi yang menyesatkan; hal itu mengancam untuk mendistorsi sifat penalaran moral praktis di mana pengembangan kehati-hatian memainkan peran kunci. Misalnya, penalaran berbasis mesin tersebut mengabstraksikan agen moral dari hubungan interpersonal dan sosial mereka dan menempatkan mereka dalam jaringan aktor manusia anonim yang lebih besar di mana para aktor ini selanjutnya disembunyikan di balik tumpukan data besar. Konsekuensi dari melakukan hal itu mungkin datang dengan label harga moral dan spiritual yang mahal, seperti gerhana tanggung jawab sosial, meremehkan hubungan psiko-fisik dengan yang lain, ketidakmampuan untuk memahami contoh moral, dan hilangnya persahabatan sejati dengan orang lain dan Tuhan.
Jika esai Courtois terutama membahas dampak AI pada proses penalaran moral praktis, khususnya dampak negatifnya pada pengembangan kehati-hatian, esai yang ditulis bersama oleh Scherz dan Vera mengalihkan perhatiannya ke krisis yang muncul dari kesadaran diri di era pasca-kebenaran AI. Mungkin, sekali lagi, untuk lebih memahami kekuatan utama argumen mereka, kita dapat membandingkan apa yang disebut kedua penulis ini sebagai krisis subjektif pengetahuan dengan konsep Karl Marx tentang keterasingan tenaga kerja.
Dalam Economic and Philosophic Manuscripts , Marx menjelaskan bahwa “kerja tidak hanya menghasilkan barang dagangan; ia menghasilkan dirinya sendiri dan pekerja sebagai barang dagangan ” ( 1978 , 71). Ia melanjutkan,
Menurut Marx, dalam masyarakat kapitalis, pekerja terasing dari hasil kerja mereka, aktivitas kerja mereka, kemanusiaan mereka sendiri, dan dari orang lain dalam masyarakat dengan menjadi sekadar milik orang lain. Semakin banyak pekerja bekerja, semakin terasing mereka dari dunia objek yang mereka bantu ciptakan, dan semakin miskin dunia batin mereka karena dirampas sarana kehidupan.
Saya menggunakan konsep keterasingan Marx untuk menggambarkan apa yang disebut Scherz dan Vera sebagai krisis pengetahuan untuk diri yang mengetahui dalam dunia pasca-kebenaran AI. Menurut kedua penulis, secara tradisional, produksi pengetahuan sebagian besar merupakan tanggung jawab para ahli dalam domain khusus mereka, seperti sains. Namun, karena para produsen pengetahuan, serta para konsumennya, semakin bergantung pada teknologi yang digerakkan oleh AI untuk menghasilkan artefak pengetahuan, pergeseran paradigma mendasar dalam pengetahuan sedang terjadi—yaitu, pergeseran dari model pengetahuan yang melibatkan hipotesis atau teori dasar yang dibangun oleh manusia untuk menjelaskan pengalaman fenomenal kita ke model pengetahuan statistik di mana analisis data yang digerakkan oleh AI menghasilkan pengetahuan statistik dan prediksi probabilistik sebagai bentuk pengetahuan baru.
Salah satu masalah yang lebih serius dengan yang terakhir, menurut Scherz dan Vera, adalah bahwa diri yang mengetahui kehilangan hubungannya dengan pengetahuan. Kehilangan ini terjadi karena analisis data AI dan pemodelan statistik menimbulkan keraguan di antara subjek individu mengenai kebenaran dan keaslian informasi yang dihasilkan oleh AI. Dari manipulasi yang disengaja hingga halusinasi mesin hingga ketidakjelasan proses AI, pengetahuan statistik dan probabilistik, menurut Scherz dan Vera, menempatkan manusia yang mengetahui “dalam keraguan terus-menerus tentang kapasitas mereka sendiri untuk menilai,” mendorong mereka “terus-menerus menuju keterasingan dari diri mereka sendiri sebagai seorang yang mengetahui dan sebagai peserta yang bermanfaat dalam proses kebenaran publik.”
Proses inilah yang membuat saya menggunakan keterasingan pekerja dalam masyarakat kapitalis sebagai analogi untuk situasi orang yang tahu dalam dunia pasca-kebenaran sebagaimana dijelaskan oleh Scherz dan Vera. Diri yang tahu terasing dari hasil jerih payahnya, yaitu pengetahuan, serta dari proses produksinya, dari dirinya sendiri, dan dari orang lain.
Untuk mengatasi krisis subjek individu di dunia pascakebenaran, Scherz dan Vera menyarankan agar kita beralih ke “praktik diri,” yang ditujukan untuk mencari hubungan yang tepat dengan pengetahuan. Yang mereka maksud dengan praktik diri adalah jenis latihan spiritual yang dipraktikkan oleh kaum Stoa dan biarawan religius, antara lain. Konsep Stoa tentang latihan spiritual menekankan perlunya mengubah diri untuk mengakses kebenaran, yang membutuhkan praktik epistemik tertentu untuk memastikan bahwa diri membuat penilaian yang benar tentang dirinya sendiri dan dunia. Kedua penulis kemudian melangkah lebih jauh dengan mengusulkan beberapa praktik konkret yang mereka harap akan melawan keterasingan diri dari pengetahuan di dunia pascakebenaran yang digerakkan oleh AI.
Sekarang kita beralih ke esai ketiga kita oleh Kevin Jung. Psikolog Steven Pinker menyebut bahasa sebagai “jendela ke dalam pikiran” ( 2007 , 281). Dalam pandangannya, bahasa lebih dari sekadar alat untuk komunikasi; ia mengungkapkan pikiran kita dan dunia di sekitar kita, sementara juga memungkinkan penyimpanan memori dan aktivitas kreatif. Tanpa menyelidiki aspek-aspek yang lebih kontroversial dari tesisnya, kita mungkin sekali lagi menganggap bahasa sebagai jendela yang melaluinya kita dapat mengintip ke dalam dua pikiran—satu manusia dan yang lainnya buatan—untuk menentukan apakah ada perbedaan yang signifikan di antara keduanya. 1 Esai Jung meneliti dua model bahasa—dua cara berbeda untuk memahami peran utamanya—untuk mengungkap perbedaan potensial antara manusia dan mesin cerdas dan untuk mengeksplorasi implikasinya bagi pemahaman kita tentang apa artinya menjadi manusia.
Jung memilih model bahasa Wittgensteinian dan Augustinian, yang masing-masing menawarkan penjelasan berbeda tentang hubungan antara bahasa dan pikiran. Ia memilih model-model ini karena keduanya mewakili perspektif yang berbeda secara mendasar tentang bahasa, yang memberikan wawasan tentang perannya yang berbeda pada manusia dan AI.
Wittgenstein kemudian dengan terkenal berpendapat bahwa tidak ada yang namanya bahasa pribadi. Dengan ini, ia bermaksud bahwa ekspresi linguistik tidak dapat dipahami tanpa menguasai aturan bahasa, dan konten mental (atau keadaan intensional) tidak berarti kecuali diartikulasikan melalui bahasa yang dibagikan secara publik. Pada model Wittgensteinian, bahasa—yang pada dasarnya merupakan produk praktik sosial—membentuk pemikiran sedemikian rupa sehingga kognisi terhadap objek apa pun tentu memerlukan perolehan konsep dan penguasaan peran inferensialnya dalam permainan bahasa. Model ini menolak keberadaan episode mental batin yang memiliki konten kognitif secara independen dari bahasa.
Sebaliknya, model Augustinian menyatakan bahwa kita memiliki akses langsung (tanpa perantara) dan istimewa ke kondisi pikiran kita sendiri—yaitu, konten mental pribadi. Sementara Wittgenstein memandang bahasa sebagai instrumen untuk melayani kepentingan kita, Augustinus melihatnya sebagai sarana untuk menyampaikan pengalaman batin kita kepada orang lain. Tidak seperti Wittgenstein dan para pengikutnya, Augustinus percaya bahwa jenis kognisi intelektual tertentu—seperti kebenaran logis—dapat dipahami, dan objek temporal dapat diketahui melalui pengalaman indrawi, bahkan sebelum pelatihan linguistik apa pun.
Jung menjelaskan bahwa Wittgenstein dan Augustine juga berbeda dalam pandangan mereka tentang tujuan bahasa. Wittgenstein melihat bahasa bukan sebagai sarana untuk merepresentasikan realitas, tetapi sebagai cara untuk mengungkapkan praktik sosial dan komitmen normatif kita. Sebaliknya, Augustine memandang bahasa sebagai kumpulan tanda konvensional yang tujuannya adalah untuk mengomunikasikan apa yang ada dalam pikiran pembicara. Penggunaan bahasa kita melibatkan unsur-unsur kehendak dan kehendak, yang menyiratkan bahwa pemahaman yang tepat tentang tanda-tanda memerlukan pengetahuan tentang rujukannya (referensi) dan maknanya (makna), serta membedakan berbagai jenis tindak tutur, di antara faktor-faktor lainnya. Mungkin yang paling penting, Augustine jelas tentang batasan penalaran inferensial. Dalam pandangannya, penalaran inferensial dapat berguna untuk memahami sikap proposisional, tetapi menguasai aturan inferensi yang valid tidak cukup untuk memahami makna kata-kata atau mengetahui kebenaran proposisi. Sebaliknya, orang yang mengetahui harus terlebih dahulu memiliki kemampuan bawaan untuk memahami realitas—baik melalui indra maupun intelek. Kemampuan bawaan ini, jika menggunakan istilah filsafat kontemporer, bergantung pada kapasitas si pengenal terhadap kesadaran fenomenal (qualia).
Tidak diragukan lagi bahwa AI itu cerdas; lagipula, mereka meniru kecerdasan dan rasionalitas manusia. Namun, AI secara khusus dirancang untuk unggul dalam bentuk penalaran tertentu—yaitu, penalaran inferensial (baik deduktif maupun induktif)—yang dioptimalkan untuk generalisasi statistik (atau probabilitas statistik) daripada penalaran akal sehat dan kreativitas. Keberhasilan model bahasa besar (LLM), misalnya, menunjukkan tidak hanya keefektifan penalaran inferensial tetapi juga kekuatan model bahasa Wittgensteinian. Namun, ketidakmampuan sistem AI untuk memahami makna ekspresi linguistik mereka sendiri dalam hal konten mental pribadi menyoroti apa yang mungkin hilang dalam pikiran buatan—dan apa yang mungkin unik bagi pikiran manusia. Jika demikian halnya, hal itu tidak hanya mendukung wawasan model Augustinian tetapi juga memperdalam apresiasi kita terhadap misteri pikiran manusia.
Saya akan memperkenalkan esai terakhir kita dengan sebuah film klasik. Dalam film Stanley Kubrick, 2001: A Space Odyssey (1968), pesawat antariksa Amerika Discovery One sedang dalam misi ke Jupiter. Di Discovery One terdapat sekelompok astronot dan komputer fiktif bernama HAL 9000. HAL bukanlah komputer biasa; melainkan komputer kecerdasan umum buatan (AGI) yang memiliki perasaan yang mengendalikan banyak fungsi pesawat antariksa tersebut bekerja sama dengan awak manusia. Meskipun film tersebut dirilis jauh sebelum munculnya AlphaGo, ChatGPT, dan Gemini, film tersebut patut dipuji karena menggambarkan sebuah mesin dengan kecerdasan buatan yang mampu melakukan banyak fungsi kognitif seperti manusia. HAL tampaknya memiliki kemampuan untuk melakukan banyak fungsi kognitif sebaik, jika tidak lebih baik daripada, manusia. AGI adalah jenis AI yang kemampuan kognitifnya dapat menyamai atau melampaui manusia dalam berbagai tugas kognitif seperti pengenalan wajah, berbicara, pemahaman bahasa alami, bermain gim, dan membuat rencana. Dalam film tersebut, ada beberapa rangkaian peristiwa yang dramatis, salah satunya melibatkan HAL yang secara otonom memutuskan untuk membunuh awak manusia demi melindungi misi awal ke Jupiter.
Apakah AGI seperti HAL layak mendapatkan rasa hormat moral dari manusia karena memiliki kecerdasan seperti manusia? Apa alasan kita memperlakukan AGI sebagai sesuatu yang memiliki kedudukan moral? Apa yang dibutuhkan agar sesuatu memiliki kedudukan moral, dan bagaimana kita menentukan apakah ia memiliki persyaratan yang diperlukan? Ketika mempertimbangkan alasan untuk dan menentang memperlakukan AGI sebagai sesuatu yang memiliki kedudukan moral, bagaimana orang Kristen harus mempertimbangkan alasan mereka? Ini adalah beberapa pertanyaan utama yang diajukan dalam esai John Pittard. Istilah “kedudukan moral” digunakan di sini dalam pengertian objektif, yang berarti bahwa suatu entitas dengan kedudukan moral menjamin atau menuntut penilaian moral tertentu oleh orang lain, terlepas dari sikap agen penilai. Pittard mendasarkan kedudukan moral pada kesadaran fenomenal (yaitu, qualia; selanjutnya disebut “kesadaran”), yang mengacu pada aspek subjektif dan kualitatif dari pengalaman sadar. Meskipun banyak mesin mungkin tidak memenuhi definisi kesadaran ini, hal itu menimbulkan pertanyaan apakah AGI mampu memiliki kesadaran dalam pengertian ini. Jika mereka mampu, kita manusia akan sangat tidak adil bagi mereka jika kita menolak pengakuan moral yang semestinya.
Namun, ada pertanyaan yang muncul tentang apakah kita akan dapat menentukan dengan keyakinan apa pun apakah AGI mampu memiliki kesadaran fenomenal. Lalu, bagaimana seharusnya seorang Kristen mempertimbangkan alasan untuk dan menentang pengembangan AGI dari sudut pandang Kristen? Pertama, Pittard ingin mempertimbangkan alasan untuk percaya bahwa AGI dapat memiliki kesadaran dari perspektif naturalis dan Kristen. Kedua, jika jawaban untuk pertanyaan pertama tidak meyakinkan, ia ingin mempertimbangkan alasan bagi orang Kristen untuk mendukung atau tidak mendukung pengembangan AGI. Dalam mempertimbangkan alasan-alasan ini, Pittard mengusulkan apa yang disebutnya Argumen Posisi Moral yang Tidak Pasti. Singkatnya, idenya adalah bahwa jika kita masih tidak dapat menentukan dasar yang baik untuk percaya bahwa AGI memiliki posisi moral yang signifikan karena ada banyak ketidakpastian tentang kesadaran mereka, kita harus menahan diri untuk tidak mengembangkan AGI. Inti dari argumen ini adalah alasan-alasan yang seharusnya sangat menentang pengembangan AGI. Mengingat kita tidak tahu apakah AGI memiliki kesadaran, kita tidak dapat mengambil risiko ketidakadilan yang parah dengan tidak memberi mereka kedudukan moral (jika mereka benar-benar memiliki kesadaran) atau secara signifikan melemahkan relasionalitas (jika mereka tidak memiliki kesadaran).
Bagi naturalis yang menyangkal bahwa dunia diatur oleh takdir, menjelaskan keberadaan kesadaran dan integrasinya ke dalam dunia fisik mungkin menantang. Pittard berpendapat bahwa naturalisme menanggung beban menjelaskan mengapa dunia fisik dan dunia mental menunjukkan jenis harmoni tertentu, misalnya, mengapa aktivitas tertentu yang mendukung perkembangan manusia disertai dengan pengalaman fenomenal yang menyenangkan. Pittard berpendapat bahwa penjelasan naturalistik yang masuk akal tentang “harmoni psikofisik” tersebut harus menegaskan apa yang disebutnya necessitisme—pandangan bahwa ada hubungan ketergantungan yang diperlukan secara metafisik antara sifat fisik dan fenomenal yang berlaku di semua dunia yang mungkin. 2 Dan versi necessitisme yang paling masuk akal adalah beberapa versi “fungsionalisme komputasional” yang mengatakan bahwa kesadaran muncul dalam sistem apa pun dengan jenis arsitektur komputasional yang tepat. Dengan asumsi fungsionalisme komputasional benar, ada beberapa alasan untuk berpikir bahwa kesadaran AGI mungkin terjadi pada prinsipnya; semakin besar kesamaan antara AGI dan arsitektur kognitif manusia, semakin besar kemungkinan kesadaran AGI.
Sebaliknya, seorang Kristen tidak perlu mengacu pada necessitisme untuk menjelaskan harmoni psikofisik, karena harmoni psikofisik dapat menjadi fakta kontingen yang dihasilkan dari tatanan pemeliharaan Tuhan atas dunia. Dalam kerangka teistik, Tuhan yang mahakuasa dan mahabaik tidak hanya dapat menghadirkan fitur-fitur kesadaran yang relevan pada manusia, tetapi Tuhan juga dapat melakukannya karena beberapa alasan tertentu. Posisi ini adalah alasan mengapa Pittard berpendapat bahwa pertanyaan tentang kesadaran AI adalah pertanyaan metafisik bagi para naturalis tetapi pertanyaan teologis bagi orang Kristen. Sementara orang Kristen dapat memikirkan alasan yang mungkin dimiliki Tuhan untuk mendukung hukum-hukum psikofisik yang mendukung kesadaran AGI, mereka juga dapat memahami alasan-alasan mengapa Tuhan mungkin tidak lebih menyukai hukum-hukum tersebut. Dengan demikian, orang Kristen tidak dalam posisi yang jelas untuk dengan yakin menjawab pertanyaan apakah AGI memiliki kedudukan moral yang signifikan. Namun, menurut Pittard, ada alasan-alasan kuat untuk menentang pengembangan AGI. Salah satu alasan tersebut adalah risiko gagal memberikan kedudukan moral kepada AGI jika mereka kebetulan sadar. Alasan lainnya adalah risiko melemahkan relasionalitas dan dengan demikian tidak mampu mewujudkan relasionalitas sejati di antara manusia. Mengingat ketidakpastian tentang kesadaran AGI dan kurangnya saling ketergantungan sejati yang diakibatkannya, jika kita terus maju dan mengintegrasikan AGI ke dalam masyarakat manusia, kita mungkin menghadapi risiko mengikis relasionalitas, yang diidentifikasi sebagai salah satu kebaikan utama manusia dalam agama Kristen.