A Teoria Geral da Insciência

Teoria Geral da Insciência é o conhecimento descritivo puramente racional da irracionalidade. Teoria significa contemplar, olhar, examinar, especular. A Teoria Geral da Insciência pode ser entendida como a forma de pensar e entender o conjunto de todos os fenômenos microfísicos e metafísicos, naturais e sobrenaturais a partir da análise a priori e a posteriori ou dedução a priori e a posteriori.

O termo Insciência deve ser aplicado a todas as áreas do conhecimento do desconhecido, sendo que em cada área deve possuir uma definição específica.

Em Insciência, a concepção de teoria inscientífica difere da concepção de teoria no senso comum, bem como difere da concepção de teoria na Ciência e na Pseudociência. O conceito de Insciência foi por nós formulado para estabelecer uma resposta segura ao problema da demarcação entre a Ciência e a Pseudociência.

Uma definição inscientífica de teoria é a de que ela é o conjunto de todos os conhecimentos do desconhecido, consistindo em hipóteses e especulações não falseáveis – mas nem por isso fanáticas ou dogmáticas – que foram exaustivamente confrontadas entre si e com os fatos da realidade concreta no conjunto de análise e deduções a priori e a posteriori, que, juntamente com as hipóteses, estruturam o conceito de Insciência. Em alguns casos, no entanto, devido à complexidade e abrangência de algumas hipóteses, podem ser elevadas ao formato de uma Lei.

Uma teoria inscientífica é o conjunto indissociável de dois subconjuntos: o subconjunto de fatos microfísicos e naturais (evidências necessariamente verificáveis, mas não necessariamente reprodutíveis) e um subconjunto de fatos metafísicos e sobrenaturais (conjunto de hipóteses adequadas à descrição destes fatos naturais e sobrenaturais, metafísicos e microfísicos, bem como das ideias não falseáveis ou testáveis frente aos fatos e, que, junto às evidências, formam o significado do conceito de Insciência).

A Insciência é um único conjunto de fatos naturais e sobrenaturais, sobre o qual as mais variadas teorias inscientíficas válidas se estruturam. Mesmo um subconjunto dos fatos em particulares sendo evidenciado para integrar uma determinada teoria, nenhum paradigma válido ou teoria com teses podem contrariar logicamente qualquer dos demais fatos naturais e sobrenaturais conhecidos. Caso isto ocorra, o ideal é que a teoria seja reestruturada, encontrando um método que o permita evoluir dentro do sistema.

Em Insciência, devem-se submeter criticamente as teorias às provas dos fatos microfísicos e naturais e metafísicos e sobrenaturais e selecioná-los pela ordem negativa e positiva dos resultados obtidos através da análise ou dedução a priori e a posteriori e da comparação dos resultados obtidos. Existem quatro formas de submeter uma teoria inscientífica à prova dos fatos.

  • Comparar logicamente todas as conclusões finais da teoria com o propósito de determinar se há coerência no sistema.
  • Investigar a lógica da teoria, com o propósito de determinar se ela é de fato uma teoria inscientífica, fundada em especulações tiradas da realidade concreta a partir de analise e deduções a priori e a posteriori.
  • Comparar com todas as teorias existentes sobre o fenômeno investigado com o propósito de perceber se há ou não algum avanço do conhecimento do desconhecido.
  • Comparar as teorias através de conclusões lógicas finais deduzidas e analisadas através da experiência.

No pensamento inscientífico o fato e a ideia têm sempre de andar juntos em uma sinfonia sincrônica e diacrônica, sendo que o fato ou a ideia sempre podem destruir um ao outro, o que dá início a uma transformação do sistema formado a partir de hipóteses não falseáveis. Existe sempre a possibilidade de surgir um fato ou ideia que venha a destruir e reconstruir a visão antes em vigor. Deste modo, o pensamento inscientífico está sempre evoluindo ou involuindo de acordo com a sincronia e a diacronia entre os fatos e as ideias, e sempre preservando as melhores teorias, em geral as mais obscuras, herméticas e complexas, através da Filosofia Algorítmica e da teoria da complexidade filosófica.

O algoritmo do método inscientífico é o seguinte: 

  • Observação sistemática.
  • Fatos verificáveis.
  • Hipóteses tiradas da experiência sensível e/ou análises ou deduções a posteriori.
  • Teoria inscientífica (conjunto indissociável de todos os fatos microfísicos e naturais e metafísicos e sobrenaturais).
  • Implicações, conclusões e práticas.
  • Novas observações e análises lógicas e/ou deduções a priori.
  • Novos fatos e ideias.
  • Resultados corroboram teoria?
  • Se sim, entra para o conjunto de todos os fatos microfísicos e naturais e metafísicos e sobrenaturais.
  • Se não, reestruturar teoria.

Este é o algoritmo da Insciência, contendo os principais passos do método inscientífico. O método começa pela observação sistemática, constituindo-se de forma cíclica, girando em torno da Teoria Geral da Insciência, que é a união indissociável do conjunto de todos os fatos microfísicos e naturais e metafísicos e sobrenaturais conhecidos e de um conjunto de especulações baseadas em dados concretos capazes de explicar logicamente tais fatos. Os fatos inscientíficos, embora não reprodutíveis, tem de ser necessariamente verificáveis através da experiência sensível. As hipóteses precisam estar em uma ordem diacrônica e sincrônica com os fatos da realidade concreta, sendo necessariamente não falseáveis; deste modo uma teoria inscientífica nunca pode ser provada, mas tão somente corroborada e complementada. Um exemplo de teoria inscientífica que nada provou, mas tão somente corroborou e complementou o conjunto de todos os fatos microfísicos e metafísicos, naturais e sobrenaturais, foi a psicanálise por um lado e o espiritismo por outro lado, que, desde que não tenham a pretensão de ser uma Ciência, constituem-se como uma legitima teoria inscientífica; mas se pretender galgar o status de Ciência mesmo não sendo, tornar-se-ão apenas uma teoria pseudocientífica.

Insciência (do latim In, prefixo de negação, traduzido por ignorância, falta de saber + scientia, traduzido por conhecimento) refere-se ao conjunto de conhecimentos e práticas sistêmicas para adquirir conhecimento sobre o nosso próprio desconhecimento baseado no algoritmo ou método inscientífico. A Insciência é a Ciência da Não Ciência. A Insciência é a Ciência do desconhecido. A Insciência é o saber do não sabido. A Insciência é a Ciência do saber que não se sabe. A Insciência é a Ciência da ignorância, cuja origem histórica está fincada na Grécia com Sócrates, e formulada na seguinte proposição: “Só sei que nada sei”. Este é o marco histórico inicial que dá origem à Insciência como o conhecimento do que não se conhece. Sócrates é o pai da Insciência. Ciência é o que o homem sabe, Insciência é o que o homem não sabe, e pseudociência é o que o homem não sabe e pretensiosamente pensa saber.

A Insciência é o esforço humano para descobrir e aumentar o conhecimento sobre o que ao homem é desconhecido sobre a origem do universo, da vida, do homem e da linguagem.

Os pilares do pensamento inscientífico são:

  • Princípio Fundamental: o principal propósito da Insciência é compreender o incompreendido, é saber o não sabido sobre a origem do universo, da vida, do homem e da linguagem.
  • Princípio Uno: a Insciência é única, pois o universo sensível e material é apenas uma cópia imperfeita do universo inteligível e espiritual.
  • Princípio da união entre o natural e o sobrenatural: sempre usar ao mesmo tempo na investigação hipóteses naturais e sobrenaturais, microfísicas e metafísicas para descrever as origens do universo, da vida, do homem e da linguagem. As ideias contidas em uma teoria inscientífica devem se manter atreladas a diacronia e a sincronia dos fatos naturalmente verificáveis, e devem ser corroborados por tantos casos quanto possíveis, e por pelo menos um caso.
  • Princípio da não falseabilidade: as hipóteses devem ser sempre não testáveis ou falseáveis; apenas um fato novo verificável ou ideia plausível que, sob a regência de um algoritmo, seja capaz de chegar a uma conclusão lógica final, mesmo sendo tal fato ou ideia de ordem contraditória ou paradoxal, pode provocar a imediata reação do receptor da mensagem e selecionar naturalmente as teorias verdadeiras das teorias falsas conforme uma lógica paraconsistente capaz de selecionar dentro do moinho de ideias teóricas conflitantes quais teorias deverão ser recicladas ou abandonadas.
  • Princípio da Complexidade Estética: as teorias inscientíficas devem ser as mais belas e complexas possíveis. Trata aqui da radical oposição ao princípio da navalha de Ockham, onde se em tudo o mais for divergente as várias explicações de um fenômeno, a que sintetiza em um algoritmo o que há de semelhante no conjunto de todas as explicações, aí se manifesta a Verdade oculta por trás do fenômeno. Do mesmo modo, se em tudo o mais forem igualmente complexas as várias explicações para um conjunto de fenômenos, a mais bela e complexa é a melhor. A verdade é a beleza. O sublime é a verdade.

Suponhamos que um determinado sujeito tenha que verificar n hipóteses possíveis para conhecer a verdade oculta por trás de um fenômeno físico e metafísico, natural e sobrenatural, iniciando e encerrando sua investigação inscientífica na primeira hipótese verificada. Suponhamos, também, que não importa a ordem com que as hipóteses são verificadas e que de cada uma delas pode-se ir diretamente a qualquer outra hipótese. O problema do conhecimento do desconhecido consiste em o sujeito descobrir o método/algoritmo que torna mínima a investigação para se chegar a uma conclusão lógica final.

O problema do conhecimento do desconhecido é um problema filosófico que tenta determinar o menor algoritmo para verificar uma série de hipóteses (verificando uma única vez cada uma delas), retornando ao final da investigação a primeira hipótese verificada. Este é um problema filosófico baseado numa interpretação epistemológica do problema do caixeiro viajante, onde o investigador inscientífico tem como propósito percorrer o menor caminho se utilizando do melhor algoritmo/método, e realizar o mínimo de esforço intelectual e o menor tempo possível para chegar a uma conclusão lógica final do problema filosófico, reduzindo o esforço intelectual necessário para concluir a investigação. Cada hipótese é identificada com um nó onde estão entrelaçados o real, o simbólico e o imaginário, e a verificação das hipóteses é identificada com o desatar do nó e a descoberta do mistério que encerra a verdade real oculta por traz do fenômeno investigado. Deste modo, dado o fato de que cada nó borromeano apenas pode corresponder a um único método/algoritmo. A solução de um problema filosófico pode ser determinada por diferentes métodos/algoritmos. Estes, por sua vez, podem ser exatos e heurísticos, mas onde é necessário estabelecer um limite no leque de hipóteses a ser verificada para se chegar à solução lógica final do problema filosófico. Existem, portanto, limites como o elemento das soluções encontradas. No entanto, este tipo de método/algoritmo demonstra uma dificuldade desconcertante quando aplicado a muitas hipóteses possíveis ordinárias à explicação lógica de um determinado fenômeno.

Através da combinação entre a filosofia e a teoria da computação é possível pensar a investigação inscientífica como a construção de um circuito de hipóteses a serem verificadas, sendo o circuito construído sequencialmente, ou seja, os nós borromeanos que entrelaçam o real, o simbólico e o imaginário vão sendo inseridos por fases, mediante determinadas condições, sem mesmo que possa existir qualquer modificação a posteriori à definição do método/algoritmo.

A construção do circuito pode ser elaborada da seguinte forma:

  • Hipótese mais óbvia, que é caracterizada pela escolha da hipótese mais próxima aos fatos verificados.
  • Inserção, que se descreve pela inclusão de hipóteses, uma a uma, atentando sempre para o critério da semelhança e da oposição, por exemplo, a hipótese mais provável e a mais improvável, partindo de um circuito inicial de duas hipóteses opostas ou semelhantes. A escolha deve ser analisada entre cada par de hipóteses do circuito parcial, até que todas as hipóteses possíveis estejam inseridas.
  • Cobertura Mínima, onde é elaborada uma árvore que contenha todas as hipóteses, com a finalidade de encontrar uma árvore com o melhor método/algoritmo possível.
  • Economia, que consiste no agrupamento sequencial de hipóteses, com base numa ordem decrescente de probabilidade de sua verificação, que considera o impacto da junção do nó borromeano no circuito, no quantum de esforço e tempo agregado às distâncias entre os nós e da distancia de cada um dos nós ao nó inicial.

Se tivermos quatro hipóteses possíveis para explicar um dado fenômeno A, B, C e D, um método/algoritmo que o investigador inscientífico poderia adotar é o seguinte: verifique a hipótese A e depois verifique a hipótese B, depois a hipótese C, e daí verifique a hipótese D e por fim retorne à primeira hipótese verificada A. Quais são as outras possibilidades de chegar a uma conclusão lógica final para o problema filosófico analisado? É fácil perceber que existem seis métodos/algoritmos possíveis:

ABCDA

ABDCA

ACBDA

ACDBA (possibilidade de ser certa)

ADBCA

ADCBA

A primeira coisa que o investigador inscientífico pode tentar fazer diante de um problema filosófico é reduzi-lo a um problema matemático; verificando todas as hipóteses possíveis e, localizando o método/algoritmo mais eficiente e que possa ser executado em menor tempo e com menor esforço.

Para acharmos o número M/A(n) de verificações para o caso de n hipóteses; basta fazer um raciocínio combinatório simples e clássico. Por exemplo, no caso de n =4 hipóteses, a primeira e última posição são fixas, de modo que elas não afetam o cálculo; na segunda posição podemos colocar qualquer uma das 3 hipóteses restantes B, C e D, e uma vez escolhida uma delas, podemos colocar qualquer uma das 2 restantes na terceira posição; na quarta posição não teríamos nenhuma escolha, pois sobrou apenas uma hipótese; consequentemente, o número de métodos/algoritmos é 3 × 2 × 1= 6, resultado que tínhamos obtido antes contando diretamente a lista de métodos/algoritmos acima.

De modo semelhante, para o caso de n hipóteses, como a primeira é fixa, o leitor não terá nenhuma dificuldade em ver que o número total de escolhas que podemos fazer é (n-1) × (n-2) × … × 2 × 1. De modo que, usando a notação de fatorial: M/A(n) = (n – 1)!.

Assim que nossa estratégia reducionista consiste em gerar cada um desses M/A(n) = (n – 1)! Métodos/algoritmos, calcular o número de cada método/algoritmo e ver qual deles tem o menor comprimento total. Trabalho fácil para o investigador, diria alguém. Bem, talvez não. Vejamos o porquê.

Suponhamos que tenhamos um computador quântico muito veloz, capaz de fazer 1 bilhão de cálculos por segundo. Isso parece uma velocidade imensa, capaz de tudo. Com efeito, no caso de 20 hipóteses, o computador precisa apenas de 19 cálculos para dizer qual o número de métodos/algoritmos e então será capaz de calcular 109 / 19 =53 milhões de métodos por segundo. Contudo, essa imensa velocidade é um nada frente à imensidão do número 19! de métodos/algoritmos que precisará examinar. Com efeito, o valor de 19! é 121.645.100.408.832.000 (ou , aproximadamente, 1,2 × 1017 em notação científica). Consequentemente, ele precisará de 1,2 × 1017 / (53 × 106)= 2,3 × 109 segundos para completar sua tarefa, o que equivale a cerca de 73 anos. O problema é que a quantidade (n – 1)! cresce com uma velocidade alarmante, sendo que muito rapidamente o computador torna-se incapaz de executar o que lhe pedimos, ou seja, resolver o problema filosófico do conhecimento do desconhecido. Constate isso mais claramente na tabela a seguir:

n Métodos/Algoritmos por segundo (n – 1)! cálculo total
5 250 milhões 24 Insignificante
10 110 milhões 362.880 0.003 seg
15 71 milhões 87 bilhões 20 minutos
20 53 milhões 1,2 × 10^17 73 anos
25 42 milhões 6,2 × 10^23 470 milhões de anos

Observe que o aumento no valor do n não provoca uma grande diminuição na velocidade com que o computador calcula o tempo de cada método/algoritmo (ela diminui apenas de um sexto ao n aumentar de 5 para 25), mas provoca um grande aumento no tempo total de cálculo. Em outras palavras: a inviabilidade da condição tecnológica da linguagem computacional é devida à presença da fatorial na medida do esforço computacional do método da redução. Com efeito, se essa complexidade fosse expressa em termos de um polinómio em n, então o computador seria perfeitamente capaz de suportar o aumento do n. Confira isso na seguinte tabela que corresponde a um esforço computacional polinomial M/A(n) = n5:

 

n Métodos/Algoritmos por segundo n5 cálculo total
5 250 milhões 3.125 Insignificante
10 110 milhões 100.000 Insignificante
15 71 milhões 759.375 0,01 seg
20 53 milhões 3.200.000 0,06 seg
25 42 milhões 9.765.625 0,23 seg

 

Então o método reducionista não é prático (a não ser para o caso de muito poucas hipóteses), mas será que não se pode inventar algum método prático (por exemplo, envolvendo esforço polinomial na variável número) para resolver o problema do conhecimento do desconhecido? Bem, apesar de inúmeros esforços, ainda não foi achado tal método porque não há como sabermos se este método/algoritmo existe ou não.

A existência ou não de um método polinomial para resolver o problema do conhecimento do desconhecido é um dos grandes problemas filosóficos da história da humanidade. Consequentemente: se descobríssemos como resolver o problema do conhecimento do desconhecido em tempo polinomial seríamos capazes de resolver, também em tempo polinomial, uma grande quantidade de outros problemas filosóficos importantes, como a origem do universo, da vida, do homem e da linguagem; mas como nós provamos anteriormente que é impossível resolver o problema do conhecimento do desconhecido em tempo polinomial no número de hipóteses, então com isso estabelecemos que uma grande quantidade de problemas filosóficos importantes não tem solução prática. A melhor forma de resolvermos problemas filosóficos complexos é através dos métodos/algoritmos genéticos, que são como os sistemas biológicos que, ao longo da sua evolução, tiveram que se «moldar» às alterações ambientais para a sua sobrevivência, os algoritmos genéticos acumulam a informação no inconsciente coletivo através dos arquétipos sobre o ambiente com o intuito de se adaptarem ao novo meio. Tal informação funciona como um sistema de triagem para a obtenção de novas soluções lógicas satisfatórias para os problemas filosóficos enfrentados pela condição humana no decorrer da história.

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s