sexta-feira, 26 de setembro de 2008

Densidade e bolas fechadas em análise de agrupamentos

-----------------------------------------------------------------------------
Seminário do Grupo de Lógica, Inteligência Artificial
e Métodos Formais - LIAMF
Seminário Registrado na CPG do IME/USP
Página: http://www.ime.usp.br/~liamf/seminarios/index.html
-----------------------------------------------------------------------------

Título: Densidade e bolas fechadas em análise de agrupamentos
Palestrante: Carlos Gonzalez

Data: 29/09/2008, 14h30
Local: Sala 03B, IME-USP

Resumo:
-------

Uma das conceitualizações possíveis em análise de agrupamentos
consiste em selecionar as áreas do espaço de características (feature
space) que apresentam maior densidade. O conceito básico de densidade
surge de considerar a quantidade
de pontos que tem uma determinada região do espaço. Seguindo com esta linha de
raciocínio, precisamos determinar, de alguma maneira, a região que vai ser
considerada para calcular a densidade.

Neste sentido, noções topológicas bem conhecidas, como a de bola
fechada, podem nos auxiliar. Mas para isto precisamos analisar o
seguinte problema: dado um conjunto de elementos do espaço de
características: como determinar uma bola
fechada mínima ou minimal que inclua este conjunto? Uma vez solucionado este
problema, podemos pensar várias maneiras de aplicar este contexto metodológico
em análise de agrupamentos. Se trabalharmos em análise de agrupamentos
hierárquico acumulativo, podemos determinar que dois agrupamentos
A_{1} e A_{2} serão selecionados para formar um novo agrupamento se a
densidade da menor bola fechada que inclui A_{1} e A_{2} tem a maior
densidade ou uma densidade maximal. Denominamos a este algoritmo
``grande bola''. Também podemos usar alguma noção de distância para
determinar, para cada par de agrupamentos A_{1} e A_{2} o conjunto E
dos elementos de A_{1} e A_{2} que estão mais próximos, considerando
para a seleção de agrupamentos a densidade da menor menor bola fechada
que inclua E. Este algoritmo é denominado ``bola no meio''.

A principal vantagem (o que na realidade foi a motivação inicial)
consiste em que a generalidade de aplicação destes conceitos permite
comparar tipos de espaços e noções de noções de distância muito
diferentes. Neste trabalho, usamos este enfoque conceitual e os
algoritmos mencionados para comparar o conhecido espaço métrico que
usa a noção de distância de Jaccard com os espaços booleanos,
nos quais as distâncias são elementos da mesma álgebra de Boole usada como
espaço de características.

São mostrados alguns resultados experimentais para uma comparação inicial deste
enfoque.

Todos são benvindos

--
Marcelo Finger
Departamento de Ciencia da Computacao
Instituto de Matematica e Estatistica | home page:
Universidade de Sao Paulo | www.ime.usp.br/~mfinger
Rua do Matao, 1010 | Tel: +55 11 3091 6310, 3091 6135
05508-090 Sao Paulo, SP Brazil | Fax: +55 11 3091 6134, 3814 4135

quinta-feira, 25 de setembro de 2008

Towards the self-regulation of personality-based social exchange processes in multiagent systems

O grupo de pesquisa em "Teoria e Inteligência Computacional" da UFRN tem o prazer de anunciar a palestra:

Towards the self-regulation of personality-based social exchange processes in multiagent systems
Prof. Graçaliz Dimuro
Universidade Católica de Pelotas

Data: 26/09/2008 às 14h
Local: UFRN, DIMAp, sala de reuniões

Abstract:
The regulation of agent interactions based on Piaget's theory of social exchanges was first proposed by Dimuro and Costa in 2005. According to that theory, social interactions are seen as service exchanges between pairs of agents and the qualitative evaluation of those exchanges by the agents by means of social exchange values: the investment value for performing a service or the satisfaction value for receiving it. The exchanges also generate values of debts and credits that help to guarantee the continuity of future interactions. A multiagent system (MAS) is said to be in social equilibrium if the balances of investment and satisfaction values are equilibrated for the successive exchanges occurring along the time. A (centralized) mechanism for the regulation of social exchanges in MAS, based on the concept of equilibrium supervisor with an associated Qualitative Interval Markov Decision Process (QI-MDP) was introduced in 2005. This approach was extended to consider personality-based agents in 2006.

We are now going towards the (distributed) self-regulation of personality-based social exchanges, by decentralizing the equilibrium supervisor through the internalization of its decision process in the interacting agents. For simplicity, we consider that the exchanges between each pair of agents have no influence from the exchanges occurring between other pair of agents, which allowed for a simple way of distributing the decision process. However, since the agents do not necessarily have access to the internal states (balances of exchange values) of each other, the decision processes have to operate in a partially observable mode, by means of Partially Observable Markov Models POMDP).

The decision about the best exchanges that an agent should propose to its partner in order to achieve social equilibrium, or to promote new interactions, is modeled as a global POMDP for each personality trait that its partner may assume. Considering a set of six personality traits (egoism, strong egoism, altruism, strong altruism, tolerance, equilibrium fanaticism), each global POMDP is decomposed into three sub-POMDPs, according to the current internal state (favorable, equilibrated or unfavorable balance of material exchange values) of the agent that is supervising the interaction.

For convenience, we have chosen the BDI architecture for the agents in the social exchange simulator used in this work. We developed an algorithm to extract BDI plans from the policy graphs of each sub-POMDP, building a set of rules that form the BDI plans for interacting with agents of each personality model. Those plans are to be selected in each interaction according to the current balance of material values of the agents in each exchange stage. Such plans are said to ``obey'' optimal POMDP policies.

quarta-feira, 24 de setembro de 2008

LÓGICAS DA INCONSISTÊNCIA DEÔNTICA

---------- Forwarded message ----------
From: Rafael Testa (CLE-UNICAMP)

Lembro a todos que na próxima quarta, dia 1 de outubro, às 16h00, teremos seminário de nosso colega Newton Perón (Mestrando IFCH/CLE), cujo resumo segue abaixo.
Abraços,
Rafael

++++++++++++++++++++++++++++++++++++++++++++++++++++

LÓGICAS DA INCONSISTÊNCIA DEÔNTICA

resumo

Lógicas da Inconsistência Formal (LFI's). são lógicas que não trivializam na presença de contradições, pois a partir de A e ~A temos simplesmente que ~oA, ou seja, A não é consistente, ou não é seguro.

De mandeira análoga, as Lógicas da Inconsistência Deôntica (LDI's) são lógicas que não trivializam na presença de obrigações conflitantes, como OA e O~A. Nesse caso teríamos apenas [X]A, ou seja, A é deonticamente inconsistente, ou deonticamente inseguro. Exemplos de LDI's são os sistemas DmbC e BDmbC - esse último com dois operadores deônticos -, que serão apresentados. Já SDmbC é uma LFI deôntica que não pode ser classificada como LDI.

Essa abordagem torna-se interessante sobretudo na análise de paradoxos que, a partir de um conjunto de premissas, inferemos OA e O~A. Trataremos, como exemplo, a análise d'O Paradoxo de Chisholm.
__._,_.___

LOCAL: CLE - UNICAMP

segunda-feira, 22 de setembro de 2008

Verdade: mito e demito

O Departamento de Filosofia da UFRN, através da Base de Pesquisa "Lógica, Conhecimento e Ética", dá continuidade a sua programação anual dos Seminários de Lógica e Filosofia Formal, com a palestra:

Verdade: mito e demito
Prof. Abrahão Costa Andrade
Departamento de Filosofia - UFPB

Data: 26/09/2008 às 16 h.
Local: UFRN, Setor II, sala D1

sexta-feira, 19 de setembro de 2008

A Conferência KR 2008 (Knowledge Representation) - Seminário LIAMF dia 22/09




-----------------------------------------------------------------------------
Seminário do Grupo de Lógica, Inteligência Artificial
e Métodos Formais - LIAMF
Seminário Registrado na CPG do IME/USP
Página: http://www.ime.usp.br/~liamf/seminarios/index.html
-----------------------------------------------------------------------------

Título: A Conferência KR 2008 (Knowledge Representation)
Palestrante:  Renata Wasssermann e Leliane Barros

Resumo:
A Conferência KR é o maior evento internacional da área de representação de
conhecimento, e a Renata e Leliane estiveram presentes a edição de 2008 na
Austrália e vão contar o que viram por lá, quais os assuntos que estão na moda,
quais os resultados mais notáveis e como seus trabalhos foram recebidos.

Todos são benvindos.

--
 Marcelo Finger
 Departamento de Ciencia da Computacao
 Instituto de Matematica e Estatistica | home page:
 Universidade de Sao Paulo             |   www.ime.usp.br/~mfinger
 Rua do Matao, 1010                    | Tel: +55 11 3091 6310, 3091 6135
 05508-090    Sao Paulo, SP     Brazil | Fax: +55 11 3091 6134, 3814 4135





Seminário LIAMF 15/09/2008

-----------------------------------------------------------------------------
Seminário do Grupo de Lógica, Inteligência Artificial
e Métodos Formais - LIAMF
Seminário Registrado na CPG do IME/USP
Página: http://www.ime.usp.br/~liamf/seminarios/index.html
-----------------------------------------------------------------------------

Título: Using Abduction to Compute Efficient Proofs
Palestrante:  Marcelo Finger

Data:   15/09/2008, 14h30
Local:  Sala 03B, IME-USP

Resumo:
--------------

 The aim of this work is to present a solution to the problem
 of computing non-analytic cuts. Several algorithms are
 provided that compute efficient proofs with non-analytic
 cuts via extended abductive reasoning.

 Extended abductive reasoning computes an extra hypothesis
 to a statement whose validity is unknown, such that:

 -- The statement becomes provable with the addition
   of the extra hypothesis.
 -- The extra hypothesis is not trivial (in some precisely
   defined sense).
 -- If the statement was originally valid (which is not known a priory)
   then the addition of the extra hypothesis leads to a statement
   with a much simpler proof.

 Due to the last item, this is ***not exactly*** the usual abductive
 reasoning found in literature, for the latter requires the input
 to be invalid.

 The idea is that the input is a contextual database, containing
 background knowledge, plus a goal formula representing some fact
 or evidence that one wants to explain or prove, and we want to
 compute an hypothesis that explains the evidence in the presence
 of the background knowledge or that facilitates the proof of
 $G$ from $\Gamma$.

 This is a joint work with Marcello D'Agostina and Dov Gabbay.
--
 Marcelo Finger
 Departamento de Ciencia da Computacao
 Instituto de Matematica e Estatistica | home page:
 Universidade de Sao Paulo             |   www.ime.usp.br/~mfinger
 Rua do Matao, 1010                    | Tel: +55 11 3091 6310, 3091 6135
 05508-090    Sao Paulo, SP     Brazil | Fax: +55 11 3091 6134, 3814 4135