Engenharia das Sociedades Artificiais e Engenharia das Sociedades Humanas

7 de Julho – 17:30

Conferencista: Professor Pedro U. Lima

Instituto de Sistemas e Robótica

Instituto Superior Técnico

Comentador: Porfírio Silva

***

Pedro Lima proferindo a conferência de balanço do Ciclo

Porfírio Silva comentando a conferência

O debate preencheu o resto da sessão

***

Resumo alargado da Conferência

Esta é a última de 6 palestras do ciclo “Das Sociedades Humanas às Sociedades Artificiais”, e foi originalmente pensada como uma palestra de síntese, a partir do ponto de vista de um investigador em ciências da engenharia, do leque diversificado de pontos de vista sobre as sociedades humanas e animais expostos pelos oradores antecedentes, simultaneamente identificando abordagens que já são, ou que poderão vir a ser, utilizadas na engenharia de sociedades artificiais. É sem dúvida um desafio de cortar o fôlego!

As sociedades artificiais de que aqui falamos estão particularmente focadas em robots, num sentido lato e moderno do conceito de robot. Tal sentido considera a maioria dos dispositivos capazes de percepção, actuação e raciocínio (ainda que este possa não passar de um simples reflexo) com uma dose razoável de autonomia (isto é, sem intervenção humana) como robots. Por outro lado, não lidamos aqui com o robot industrial que realiza tarefas repetitivas, ainda que este possa ser dotado de uma razoável dose de autonomia, já que o tema do ciclo nos empurra naturalmente para robots que (con)vivem em sociedade com outros robots e/ou com humanos de uma forma o mais natural possível. Ao assumir esta atitude, estamos a abrir a porta para a robótica do futuro, aquela que se adivinha estar já a transpor aos poucos as portas das nossas casas, dos nossos locais de trabalho, dos nossos locais de lazer, dos ambientes urbanos em que vivemos, disfarçada de dispositivos com os quais interagimos continuamente, capazes de perceber a hora do dia, a temperatura e a humidade da casa, aprender os nossos hábitos e preferências, detectar remotamente situações de perigo (intrusões, fogos, inundações) e, em geral, integrar uma imensidade de informação, extraindo dela sentidos e interpretações, para depois tomar decisões e actuar no sentido de nos proporcionar conforto, informar sobre situações em que a nossa intervenção é necessária, ajudar-nos a encontrar locais que procuramos ou apoiar equipas humanas em situações críticas.

É esta robótica interactiva, envolvendo colectivos de robots e/ou de humanos, que busca inevitavelmente inspirações multidisciplinares. Não existe provavelmente área de investigação mais multidisciplinar e integradora nos nossos dias que a robótica. É daí que vem o seu fascínio para os investigadores de diversas áreas. Mas esta multidisciplinaridade não nasceu exclusivamente da natural curiosidade científica dos investigadores envolvidos com a robótica – foi também fruto de uma necessidade natural de ir procurar soluções na matemática, na física, nas ciências da computação, para uma imensidade de problemas que surgem em resultado de se procurar reproduzir parte da natureza num robot: como vê, como percebe, como sente, como se localiza, como se locomove, como comunica, como planeia tarefas um robot?

Desde bem cedo, os investigadores em robótica perceberam que não poderiam ficar pelas disciplinas básicas, parentes próximas da engenharia. Era necessário ir olhar para as ciências naturais, para compreender os comportamentos dos animais, as definições de inteligência e de aprendizagem, as emoções, a cognição, o raciocínio. Mas também a a filosofia e as suas discussões epistemológicas e ontológicas, bem como as ciências sociais, deveriam ser naturalmente relevantes para este propósito: a sociologia na ajuda à compreensão do comportamento das sociedades de indivíduos, a economia e os seus métodos racionais de tomada de decisões por indivíduos ou grupos.

Ao longo das 5 palestras anteriores foram levantados, sob diferentes perspectivas, problemas recorrentes nas discussões entre investigadores em robótica. O mais comum desses problemas questiona se um colectivo de robots deve demonstrar comportamentos emergentes, resultantes de regras de interacção locais, ou deve ser projectado com o objectivo de proporcionar soluções que satisfaçam objectivos e especificações? Mas o que é isso de “objectivo”? Existe um plano para cada um de nós? Ou o suposto plano emerge de interacções? E há semelhanças entre estas questões levantadas pelas ciências sociais e pela biologia, por um lado, e a perspectiva da filosofia política, que nos diz existirem 2 grandes escolas de pensamento na tradição ocidental (as que olham para as sociedades como experiências guiadas teleologicamente, com eficácia na perseguição de objectivos, e procura do bem comum, ou como compactos baseados no pluralismo, regras a ser seguidas e procura da felicidade por cada indivíduo)? As actuais linhas de investigação em robótica apresentam-se frequentemente divididas entre as abordagens emergentista, de um lado, e orientada por objectivos, do outro. Os emergentistas programam comportamentos simples que interagem entre si, levando à emergência de comportamentos individuais ou colectivos mais complexos, normalmente não antecipados pelo programador. Os utilitaristas programam robots explicitamente para que estes atinjam determinados objectivos, muitas vezes expressos indirectamente por um prémio acumulado ao longo de sequências de acções, buscando-se a sequência correspondente ao maior prémio. Enquanto a emergência aparece normalmente associada à inspiração biológica, a busca das melhores sequências de acção através da maximização da utilidade do plano está suportada na economia racionalista. Serão mostrados exemplos de ambos os tipos.

Assumindo a existência de objectivos, um outro problema consiste em decidir se um colectivo deve procurar atingir objectivos comuns ou agir de acordo com uma perspectiva racionalista/utilitarista, em que cada um dos seus elementos procura maximizar o seu próprio ganho, assumindo que os restantes farão o mesmo? Quando agindo como um colectivo, os robots podem buscar equilíbrios semelhantes aos encontrados na Teoria dos Jogos segundo Nash, se assumirem uma atitude individualista e utilitarista, em que cada um dos seus elementos procura maximizar o seu próprio ganho tanto quanto possível, sob a hipótese que os restantes farão o mesmo. Mas podem também optar por estabelecer compromissos e sincronizar as suas acções, tendo em vista realizar trabalho de equipa com um fim comum. Podem ainda recorrer alternativamente à noção de economia institucionalista, segundo a qual as interacções na forma de transacções entre agentes, devem ser sempre enquadradas por um conjunto de regras que procuram satisfazer, de forma equilibrada, o colectivo. Serão também apresentados alguns passos que têm vindo a ser dados na direcção de reproduzir alguns destes mecanismos de decisão colectiva.

Para tomar decisões, necessitarão os robots de construir modelos do seu mundo circundante? E, caso o façam colectivamente, como ponderar as informações disponibilizadas por diferentes membros do colectivo? Muito do debate no seio da Inteligência Artificial (IA), sobre a necessidade de representação do conhecimento sobre o mundo, vem dos anos 1980, quando Rodney Brooks pôs em causa tal necessidade, advogando que as máquinas inteligentes devem usar, para tomar decisões, o mundo tal e qual o observam em cada instante, e não confiar em modelos frequentemente difíceis de actualizar de forma consistente, e muitas vezes baseados em representações lógicas que enfermam de problemas conhecidos, tais como o frame problem e seus familiares próximos. Tratava-se afinal de questionar a importância de dois dos grandes esquecimentos da IA, referidos como a base do enquadramento deste ciclo de discussões: o esquecimento do corpo (considerando o raciocínio puramente realizado como manipulação simbólica pelo processador central do robot, depois de uma fácil tradução da informação dos sensores em símbolos prontos a serem processados) e o esquecimento do mundo (ignorando mesmo o que os robots observam, e raciocinando com base em modelos dos efeitos plausíveis das suas acções sobre o mundo). O esquecimento dos outros, terceiro desses esquecimentos, está relacionado com a ignorância das interacções com outras entidades que partilham o mundo com o robot. Sabemos hoje que a percepção do mundo pelos robots é certamente fundamental para que estes verifiquem os efeitos reais das suas acções, avaliem o estado do mundo e tomem decisões, ainda que com incerteza associada, mas um modelo dinâmico do estado do mundo é também importante, seja para planear algumas sequências de acções sem ter que as realizar para saber qual o seu desempenho, seja para, introduzindo alguma estrutura a priori, reduzir a complexidade e incerteza associadas à avaliação do estado do mundo, complementando e validando as leituras dos sensores, seja ainda para que os robots de um colectivo disponham de uma forma de descrever, através de linguagem adequada, a sua percepção do mundo a outros robots e aos humanos (eliminando o esquecimento dos outros). A percepção cooperativa de objectos que compõem o mundo circundante do robot, conseguida a partir de informações disponibilizadas por vários membros de um colectivo é, por estes motivos, outro tema forte da robótica cooperativa. A analogia com a partilha de informação entre humanos, que melhoram assim a sua percepção do mundo, desde que ponderem adequadamente as diferentes opiniões recebidas, confrontando-as ainda com as suas próprias opiniões, é evidente. Normalmente, a percepção cooperativa envolve a ponderação de informação sobre um mesmo objecto, provenientes de vários sensores em rede, através de coeficientes de ponderação inversamente proporcionais à incerteza que cada sensor tem sobre a sua própria informação, comunicada aos restantes. O problema está muitas vezes em saber com quem comunicar, o que comunicar, e como construir representações comuns. Ou, indo um pouco mais longe, como agir proactivamente para que o colectivo observe o mundo com menor incerteza quanto aos objectos que o constituem e a sua localização.

Alguns dos problemas que se podem considerar hoje em dia resolvidos pela robótica, pelo menos para robots individuais evoluindo em ambientes estruturados, são o planeamento de trajectórias, o seguimento dessas trajectórias, ou simplesmente a deslocação para uma localização desejada evitando obstáculos dinâmicos, e a determinação da auto-localização. Embora a resolução destes problemas se revista de grande importância, o problema da autonomia e demonstração de alguma forma de inteligência por (colectivos de) robots continua a ser o grande desafio. Os robots de que falamos nesta palestra só serão aceites pelos humanos na convivência do dia-a-dia quando dispuserem de uma dose pelo menos razoável de autonomia e inteligência, que lhes permita uma interacção natural. Mas como dar inteligência aos robots se nós próprios não conseguimos ainda defini-la? Será que a abordagem “engenheiral” de construir robots que desempenhem tarefas com um objectivo claro contradiz a possibilidade de construir robots inteligentes, porque as dúvidas e as hesitações são parte da inteligência? Parte da resposta a estas questões pode estar nos algoritmos de inteligência máquina, que procuram aprender as (sequências de) acções correctas dos robots para cada percepção do estado do mundo, ainda que minada por alguma incerteza, seja a partir da imitação dos humanos ou de mecanismos de reforço em que boas sequências são premiadas e más sequências são punidas – uma clara inspiração em métodos da psicologia dos anos 50). A aprendizagem envolve dois tipos de componentes exploratórias (a exploitation e a exploration, na terminologia anglo-saxónica), em que o robot tira partido do que já aprendeu ou ensaia soluções alternativas, para eventualmente aprender a fazer melhor. Durante esse processo, poderemos dizer que o robot não está sempre convicto da qualidade das suas acções e hesita, manifestando dúvidas e procurando novas vias. Muitas vezes os robots aprendem com o objectivo de maximizar a utilidade das suas acções, expressa por prémios e penalizações para cada par estado/acção – mas como traduzir em recompensas aquilo que os humanos entendem por utilidade? Pode ser demonstrado que os humanos não usam normalmente funções de utilidade que evoluem linearmente com as características do seu estado. Algum trabalho tem também sido realizado com o objectivo de traduzir matematicamente esse comportamento “inconsistente” dos humanos em índices de desempenho desejado que os robots possam aprender.

Mas mesmo alguns dos problemas resolvidos para robot individuais continuam a desafiar os colectivos de robots, nomeadamente quando estes envolvem um grande número de membros. Um bom exemplo disto é como controlar enxames robóticos para que estes se desloquem conjuntamente segundo determinadas geometrias, complacentes com obstáculos inesperados, e eventualmente como garantir que, não comandando individualmente cada um dos robots, estes se encaminhem para regiões de interesse. A inspiração na biologia e na etologia é aqui frequente, já que na natureza encontramos inúmeros exemplos de como os animais conseguem realizar estas tarefas colectivas. Outros problemas da robótica colectiva, como por exemplo dotar um colectivo da capacidade de detectar situações anómalas, podem ir buscar inspiração na biologia, nomeadamente ao sistema imunitário.

A palestra terminará com uma lista de problemas em aberto na engenharia das sociedades artificiais, e para a resolução dos quais a interacção com a “engenharia” das sociedades naturais se poderá revelar de grande importância.

Anúncios