1. Inteligencja nie jest mądrością. Na przykład samonaprowadzające się bronie (FAF– Fire and forget) są tylko metaforycznie „inteligentne”, są raczej „chytro-celne”. W przyszłości zasięg sprawności będzie specjalizacyjnie rósł. Już istnieją maszyny zdolne do ekspertyz na wielu polach (diagnostyczno-terapeutyczne w medycynie; wyliczanka byłaby długa), ale wszystkie funkcjonują na zasadzie całkowicie „bezmyślnej” selekcji w obrębie dendrytów danych, one się niczego nie „domyślają”, są to raczej – muszę znów użyć metafory – sita połączone z encyklopedyczną informacją dotyczącą danej dziedziny”. Są pożyteczne, mogą być bardziej nieomylne od ludzi (geologów, lekarzy), ponieważ ich „wiedza” jest funkcją rozmiarów nagromadzonej specjalistycznej informacji. Z inteligencją człowieka mają niezmiernie mało wspólnego. Twierdzenie pospolite, jakoby dziś AI osiągała potencjał mniej więcej trzyletniego dziecka, jest dyskusyjne, bo różne są także dzieci. W przyszłości może stać się tak, że trendy dziś rozchodzące się (maszyny celują w ekspertyzach i w symulacjach, zwłaszcza cyfrowych „na rozkaz dany”, ludzie nie mogą ich na tych polach doścignąć: nożyce otwierają się tu szeroko) będą powoli schodziły się. Uważam, że „inteligencja” może służyć „wszystkim poczynaniom” („inteligentne” bronie trudno zwać nosicielami jakiegokolwiek „dobra”), jest ona jak nóż, instrument, ale nie jak ręka, powodowana aktami myśli i woli.
Natomiast stoją na stanowisku, że osobowość, jako władczyni inteligencji, i rozumność, jako sprawność obleczonej albo nie obleczonej w mowę zdolności do transferu dowolnych danych („performatywność”), mogą być rozłączane. To znaczy, że może powstać rozum bezosobowy, zdolny do rozwiązywania zadań, także tych, które nieposilne są dla człowieka, ale ten rozum mógłby ewentualnie symulować posiadanie osobowości (że niby ,jest personą”). Czy wtedy „byłby naprawdę osobą”, czy nie, to będzie zależało od ustalonej przez ludzi konwencji, ponieważ żaden test typu testu Turinga nie może dać 100% pewności co do tego, czy mamy kontakt z osobowością, czy z jej imitacją. Zresztą nie mamy bezpośredniego dowodu na to, że każdy człowiek poza nami (poza mną) ma świadomość i zarazem, że jest świadomie inteligentny; to domniemanie, uznawane za pewne, wynika po prostu z nawyku, wygody i stąd, że funkcjonowaniem, budową „konstrukcyjnie” jesteśmy omal tożsami (jako gatunek zwierząt rozumnych). Spis tego, co jeszcze maszyny sprawią jako przetwarzacze informacji, byłby już rozmiarów książki telefonicznej.
2. Maszyny do przetwarzania danych powodują swym istnieniem i działaniem konsekwencje natury egzystencjalnej, etycznej, emocjonalnej, bez względu na okazywane w ich pracy podobieństwo lub niepodobieństwo do podobnych prac ludzkich (przykład: maszyna może działać jak sędzia w sensie „summum ius summa injuria”, gdy trzyma się wszystkich kodeksów stanowionego prawa karnego i cywilnego oraz wprowadza „poprawki” rodem z zaprogramowanego w niej kodeksu etycznego, który musi być zawsze pełen potencjalnie powstających antynomii praktycznego działania – por. Kołakowskiego Etykę bez kodeksu). „Wirtualizacja” prac umysłowych jako na przykład rezygnacja z bezpośredniej współpracy ludzi na rzecz „wirtualnych” instytucji, biur, urzędów, gdzie człowiek kontaktuje się przez komputer z komputerami, przy których siedzą inni ludzie, musi mieć powyżej nazwane konsekwencje (przykład: łatwo wydać komendę, mocą której inni ludzie będą cierpieć lub ginąć drogą „łańcucha pośredniczeń” komputerowych, gdyż zadanie końcowe może być przeformułowywane z dowolną intensywnością peryfrastyczną, ale z mocą ekwifinalną). Znaczy to, że nie człekokształtność inteligencji czy pseudointeligencji maszynowej powoduje nazwane konsekwencje. Epoka pary albo epoka atomu spowodowały konsekwencje pośrednio od ludzi zależne i na ludzi wpływające, natomiast mierzalny IQ (iloraz inteligencji) jako miernik wagi owych konsekwencji wcale nie musi być istotny. (I wśród ludzi agresywny dureń u władzy może powodować konsekwencje gwałtowniejsze od konsekwencji pracy tysiąca Einsteinów.) Rozwój – każdy – prowadzi do rozstaju skutków „dobrych” i „złych”. Technology assessment Amerykanów czyli przewidywanie konsekwencji psychosocjalnych wdrażania każdej (nowej) technologii nie jest w pełni z góry możliwe. „Odsiew” złych skutków „dobrej jako bardzo sprawnej” technologii jest zadaniem na ogół niepokonywalnym. (Komputer mógłby stać się nawet cenzorem, ale też bezmyślnym, wedle zaprogramowania swojego, a nie podług jakiegoś „prawa Natury”). Każda technologia o efektywnej mocy sprawczej jest potencjalnie w awersie zbawienna, w rewersie – niebezpieczna. Tak było i sądzę, że tak będzie. Komputer programowany na rzecz „dobra dla ludzi” też, jako zniewalający do „algorytmu dobrych zachowań”, może powodować wiele nieszczęść.