IA Python
Keras – Topologia

Topologia baseada em empilhamento

Modelo sequencial

  • Densa – Totalmente conectada
  • Embedding –
  • Dropout – Remove conexões aleatórias

Função de ativação

Cada camada tem uma função de ativação.

Entre elas:

  • relu – camadas intermediarias ou ocultas, pois mostra os valores reais.
  • sigmoid – Te da um valor de probabilidade 0-1

Hiper parâmetros

Afeta a performace da rede.

  • LOSS – função de perda (mean_squared_error)
  • Optimizer – Otimizador de ajuste de pesos da rede. ADAM (stochastic gradient descent)
  • Metrics – Metrica de previsão para apurar se esta certo.

Exemplo de modelo

modelo = Sequental()

modelo.add(tipo)

modelo.add(Dropout(0.2))

modelo.add(tipo)

modelo.add(Dropout(0.2))

modelo.add(tipo)

modelo.add(Dropout(0.2))

Tipos:

#camadas intermediarias

Dense(output_dim=10, input_dim=X_train.shape[1], activation=’relu’))

#Camada de finalização

Dense(output_dim=10, input_dim=X_train.shape[1], activation=’sigmoid’))

MNote2 srvFalar
MNote 2.32

Fechamos a versão 2.31 e demos inicio a versão 2.32.

Na versão 2.31 foram feitos as seguintes mudanças:

  • Melhora no tratamento das janelas
  • Correções no CHATGPT e uso da API
  • Correções no MQUERY para Windows
  • Criação de gráficos a partir dos datasets de select
  • Exportação para JSON e CSV dos datasets
  • Importação de CSV de dados para Mysql
  • Sintetização de vóz para windows e Linux.
  • Inicio da integração da ferramenta de criação de treinamento de redes neurais
  • srvFalar associado ao projeto MNote

Estas modificações já estão disponíveis em Windows e Linux, e em breve atualizadas na versão ARM.

Sintetização de Voz

Apresentação de melhorias na versão 2.31 usando o chatgpt.

Criação de Gráficos

Criação de gráficos no MNote2

Desenvolvimento de Software
Integração do Chatgpt e Lazarus: Desenvolvendo Soluções Robustas e Amigáveis

A integração do Chatgpt junto com Lazarus em aplicações Desktop pode ser uma excelente maneira de utilizar a inteligência artificial para desenvolver soluções mais robustas e amigáveis. Neste artigo, vamos apresentar tanto o uso da ferramenta de integração desenvolvida pelo autor (disponível em https://github.com/marcelomaurin/CHATGPT), quanto um exemplo prático de aplicação no MNote2, onde a IA é utilizada tanto na formatação de SQL, como no auxílio e validação de queries de pesquisa, além de garantir a consistência dos códigos desenvolvidos.

A utilização do Chatgpt em conjunto com Lazarus traz diversos benefícios tanto para os desenvolvedores quanto para os usuários finais.

Uma das principais vantagens é a capacidade de evitar erros e permitir ajustes e aferições durante o processo de uso das ferramentas.

Vamos analisar inicialmente o uso no MNote2, nele, a IA pode consistir tabelas, ajustando tanto estéticamente como sintaticamente, querys complexas, permitindo que o analista desenvolva de forma mais rápida e intuitiva.

Neste exemplo vemos o MNote2 que a IA, ajustou o layout de um SQL, permitindo que o mesmo seja analisado.

Os próximos passos, é fornecer previamente as tabelas referenciadas, para que a IA possa com isso fazer a prévia amarração das querys através de seus Joins.

MNote2 – 2.31

Exemplo de projeto em desenvolvimento com IA integrada.

Com a IA integrada, é possível contar com um assistente virtual que auxilia na confecção correta de queries SQL, evitando erros comuns e garantindo que as pesquisas sejam realizadas de maneira eficiente.

Além disso, a integração do Chatgpt com Lazarus permite a validação de queries de pesquisa, garantindo que elas estejam corretas e retornem os resultados desejados. O assistente virtual pode analisar a estrutura da query e verificar se os parâmetros estão corretos, evitando consultas inválidas e economizando tempo do desenvolvedor.

Outro ponto importante é a consistência dos códigos desenvolvidos. Com a IA auxiliando no processo de desenvolvimento, é possível manter um padrão de código mais uniforme e evitar erros comuns. O assistente virtual pode identificar possíveis problemas e sugerir correções, garantindo que o código final seja mais legível, fácil de dar manutenção e menos propenso a erros.

No exemplo prático do MNote2, a integração do Chatgpt com Lazarus é utilizada para auxiliar tanto na formatação de SQL quanto na validação de queries de pesquisa. Com a ajuda do assistente virtual, os desenvolvedores podem escrever queries de maneira mais eficiente e garantir que elas estejam corretas antes de executá-las. Isso resulta em um processo de desenvolvimento mais ágil e menos propenso a erros.

Sistemas de ERP e CRM, porem se beneficiar muito, através de sistemas de sugestão, analisando padrões de comportamento do software e sugerindo mudanças, para evitar problemas logisticos ou de processos.

Em resumo, a integração do Chatgpt com Lazarus em aplicações Desktop oferece uma maneira eficiente e inteligente de desenvolver soluções mais robustas e amigáveis. A utilização da IA traz benefícios como a formatação correta de SQL, a validação de queries de pesquisa e a consistência dos códigos desenvolvidos. Esses aspectos agregam valor tanto para os desenvolvedores, que podem contar com um assistente virtual durante o processo de desenvolvimento, quanto para os usuários finais, que se beneficiam de soluções mais eficientes e menos propensas a erros.

Biologia Celular Hemacias Hematologia IA Microscopia OPENCV
Projeto contagem de Hemácias

Este trabalho, esta sendo baseado, no treinamento realizado por mim, e adaptado, através do curso que estou fazendo:

https://www.udemy.com/course/deteccao-de-objetos-com-python-e-opencv/

Segue explicação em vídeo:

Este projeto é uma continuação do trabalho colocado no github:

https://github.com/marcelomaurin/hemacias

No programa teste03.py, apresento como capturar a imagem e fiz alguns tratamentos de fundo, usando opencv.

Neste artigo, irei preparar imagens para gerar o reconhecimento da hemácia.

Para tanto fiz a captura da hemácia, através da microscopia. Utilizando um microscópio com lente de ampliação de 20x, com uma câmera USB de 2Mb pixels.

Pegando a figura abaixo:

Irei tratar a imagem abaixo, para tentar reconhecer e contar as hemácias.

Para tanto o primeiro trabalho, é trabalhar com a imagem, fazendo duas etapas:

Retirar fundo da imagem da hemácia, e incluí-la em um banco de imagens de fundo.

Neste artigo, irei tratar cada uma destas atividades.

Retirar o Fundo da Imagem

Agora que tenho a imagem, usarei o site

https://www.remove.bg/

Para retirar o fundo da imagem. O procedimento é bem simples, faz-se o upload da imagem já recortada, para o site, e lá retira-se o fundo, com o auxilio de ferramentas do próprio site.

O site é bem intuitivo e pode ser usado livremente.

Ao final criamos a imagem sem o fundo, que iremos utilizar.

Criando imagem Positiva

A imagem positiva é a imagem que deve possuir a hemácia.

Neste primeiro momento eu preciso de uma base de imagens.

Para isso preciso baixar um grande volume de imagens para gerar tanto imagens positivas como negativas.

Eu peguei as imagem recortada, com os fundos apresentados no aplicativo, e fui recortando montando um banco de imagens coloridos.

Imagens de Teste

Para as imagens de teste, eu peguei imagens de internet e recortei.

Conforme apresentado a baixo:

Para ter sucesso, precisarei refazer esse teste, com pelo menos uma dúzia de hemácias, produzindo pelo menos 1000 imagens.

Este trabalho é longo e demorará vários dias.

Trabalhando com as imagens

No próximo artigo iremos processar a imagens de treino, criando uma base real de treinamento.

IA
NetworkX

NetworkX é uma biblioteca de analise e manipulação de grafos.

O site do mantenedor é:

https://networkx.org/

Instalação

Para instalar o networkx use o comando a seguir:

$ pip install networkx[default]

Testando instalação:

Ao realizar este comando testamos para verificar se a instalação foi corretamente instalada.

import networkx as nx
G = nx.Graph()
IA Python
Grafos Teoria e Prática – Parte II

Neste segundo artigo irei utilizar os grafos para realizar uma pesquisa.

Para isso usarei partes do projeto já criado.

Se você não viu o primeiro artigo, recomendo que veja ele primeiro:

Este segundo artigo é mais prático, então vamos a mão na massa!

Criando conexão:

import mysql.connector
import nltk
nltk.download("stopwords")
from nltk.corpus import stopwords


stop_words = set(stopwords.words('portuguese'))

# Configuração da conexão com o banco
DB_CONFIG = {
    "host": "localhost",
    "user": "username",
    "password": "password",
    "database": "graph_db"
}

"""Cria arestas com base em frases de exemplo."""
frases = [
        "Comece a gravação de áudio",
        "Salve esse texto importante",
        "Defina um alerta para amanhã",
        "Quero a gravação dessa reunião",
        "Salve a anotação rapidamente"
]

comandos = [
        "Iniciar gravação",
        "Salvar texto",
        "Configurar alerta",
        "Iniciar gravação",
        "Salvar anotação"
]

#Treinamento e teste
matriz = [
    ["Comece a gravar agora", "Iniciar gravação"],
    ["Inicie a gravação do áudio", "Iniciar gravação"],
    ["Por favor, ative a gravação", "Iniciar gravação"],
    ["Vamos começar a gravação", "Iniciar gravação"],
    ["Quero que comece a gravar", "Iniciar gravação"],
    ["Dê início à gravação", "Iniciar gravação"],
    ["Preciso gravar isso", "Iniciar gravação"],
    ["Vamos gravar essa conversa", "Iniciar gravação"],
    ["Inicie a captação do áudio", "Iniciar gravação"],
    ["Gostaria de gravar este momento", "Iniciar gravação"],
    ["Por gentileza, inicie a gravação", "Iniciar gravação"],
    ["Capture esse áudio", "Iniciar gravação"],
    ["Quero guardar esse som", "Iniciar gravação"],
    ["Vamos documentar esse áudio", "Iniciar gravação"],
    ["Grave essa sessão", "Iniciar gravação"],
    ["Desejo registrar esse som", "Iniciar gravação"],
    ["Vamos dar start na gravação", "Iniciar gravação"],
    ["Por favor, comece a gravar", "Iniciar gravação"],
    ["Gostaria de iniciar a gravação", "Iniciar gravação"],
    ["Desejo capturar este áudio", "Iniciar gravação"],
    ["Preserve este texto", "Salvar texto"],
    ["Quero guardar essa informação", "Salvar texto"],
    ["Salve estas palavras", "Salvar texto"],
    ["Documente este conteúdo", "Salvar texto"],
    ["Registre esta informação", "Salvar texto"],
    ["Gostaria de salvar este documento", "Salvar texto"],
    ["Por favor, salve esse texto", "Salvar texto"],
    ["Desejo guardar este conteúdo", "Salvar texto"],
    ["Capture esta informação em texto", "Salvar texto"],
    ["Guarde essa anotação", "Salvar texto"],
    ["Defina um alarme para 9h", "Configurar alerta"],
    ["Quero ser alertado às 10h", "Configurar alerta"],
    ["Lembre-me de algo às 11h", "Configurar alerta"],
    ["Ative um lembrete para o meio-dia", "Configurar alerta"],
    ["Preciso de um alerta para as 13h", "Configurar alerta"],
    ["Por favor, configure um alerta para 14h", "Configurar alerta"],
    ["Quero ser notificado às 15h", "Configurar alerta"],
    ["Defina um lembrete para 16h", "Configurar alerta"],
    ["Lembre-me disso às 17h", "Configurar alerta"],
    ["Configure um alerta para 18h", "Configurar alerta"],
    ["Faça uma nota disto", "Salvar anotação"],
    ["Quero que isso fique registrado", "Salvar anotação"],
    ["Documente esta observação", "Salvar anotação"],
    ["Anote isto, por favor", "Salvar anotação"],
    ["Preserve esta anotação", "Salvar anotação"],
    ["Por favor, faça uma nota sobre isso", "Salvar anotação"],
    ["Desejo que isso seja anotado", "Salvar anotação"],
    ["Guarde este registro", "Salvar anotação"],
    ["Capture esta nota", "Salvar anotação"],
    ["Quero esta informação documentada", "Salvar anotação"],
]

Agora criamos a função de conexão com banco de dados:

def connect_to_database():
    """Retorna uma conexão com o banco de dados."""
    return mysql.connector.connect(**DB_CONFIG)

Eu pedi ao chatGPT criar a matriz estática contendo variações de solicitações de comando.

Desta forma poderia apresentar o texto e testar os resultados.

Lembrando que como uso grafos duplamente ligados, a qualidade dos resultados depende muito do treinamento.

matriz_teste = [
    ["Dê início à captura de som", "Iniciar gravação"],
    ["Gostaria de ouvir isso depois", "Iniciar gravação"],
    ["Por gentileza, registre este momento", "Iniciar gravação"],
    ["Ative o modo gravação", "Iniciar gravação"],
    ["Preserve este áudio para mim", "Iniciar gravação"],
    ["Assegure que este texto esteja seguro", "Salvar texto"],
    ["Faça uma cópia deste conteúdo", "Salvar texto"],
    ["Deixe este texto registrado", "Salvar texto"],
    ["Fixe esta informação", "Salvar texto"],
    ["Quero ter este texto para depois", "Salvar texto"],
    ["Estabeleça um aviso para 19h", "Configurar alerta"],
    ["Preciso ser lembrado às 20h", "Configurar alerta"],
    ["Por favor, defina um bip para 21h", "Configurar alerta"],
    ["Quero um aviso sonoro para as 22h", "Configurar alerta"],
    ["Faça um lembrete vibrar às 23h", "Configurar alerta"],
    ["Gostaria de ter isso em minhas notas", "Salvar anotação"],
    ["Anote isto para mim", "Salvar anotação"],
    ["Mantenha esta informação como uma nota", "Salvar anotação"],
    ["Quero isto em formato de anotação", "Salvar anotação"],
    ["Por favor, transforme isso em uma nota", "Salvar anotação"]
]

No artigo anterior, criamos apenas algumas frases para popular nossa base.

Iremos modificar um pouco nosso programa

Nas palavras vamos incluir a opção de cadastro, porem se já existir ja passamos o ID:

# Função para cadastrar palavras
def CadastraWords(word_name):
    connection = connect_to_database()
    cursor = connection.cursor()
    
    # Verifica se a palavra já está cadastrada
    cursor.execute("SELECT word_id FROM words WHERE word_name = %s", (word_name,))
    result = cursor.fetchone()
    if result:
        return result[0]
    
    cursor.execute("INSERT INTO words (word_name) VALUES (%s)", (word_name,))
    connection.commit()
    word_id = cursor.lastrowid
    
    cursor.close()
    connection.close()
    
    return word_id

Já na opção de arestas, iremos usar o CadastraWords, conforme apresentado a seguir:

def CriaArestas(Word1, Word2, Cmd):
    print(Word1)
    print(Word2)
    """Cria uma aresta associando Word1 e Word2 ao comando Cmd."""
    #word1_id = get_id_words(Word1, "word_name")
    #word2_id = get_id_words(Word2, "word_name")
    word1_id = CadastraWords(Word1)
    word2_id = CadastraWords(Word2)
    cmd_id = get_id_commands(Cmd,  "command_name")

    print(word1_id);
    print(word2_id);
    print(cmd_id);

    if not word1_id or not word2_id or not cmd_id:
        print("Erro: Um ou mais valores não foram encontrados no banco de dados.")
        return

    connection = connect_to_database()
    cursor = connection.cursor()
    
    insert_query = """
    INSERT INTO edges (word_id1, word_id2, command_id)
    VALUES (%s, %s, %s)
    """
    
    try:
        cursor.execute(insert_query, (word1_id, word2_id, cmd_id))
        connection.commit()
    except mysql.connector.Error as err:
        print(f"Erro ao inserir aresta: {err}")
    
    cursor.close()
    connection.close()

Por fim iremos incluir nos grafos os itens do treinamento:

Função para popular com dados de teste

Nela criamos e povoamos os 200 testes.

# Função para popular com dados de teste
def Popula_Teste():
    stop_words = set(stopwords.words('portuguese'))

    for item in matriz_teste:
        frase, comando = item
        words = word_tokenize(frase, language="portuguese")
        filtered_words = [w for w in words if w.lower() not in stop_words and w.isalpha()]

        for i in range(len(filtered_words) - 1):
            CriaArestas(filtered_words[i], filtered_words[i + 1], comando)

Agora iremos chamar a função e testar:

Popula_Teste()

Primeiros Testes

Agora iremos utilizar nossa matriz de teste (matriz_teste) para aferir quais os resultados que ele acha. Lembrando que para realizar tal façanha usamos novos códigos.

Nesta primeira função testamos o resultado, individualmente.

def Teste_Validacao(Frase, comando):
    stop_words = set(stopwords.words('portuguese'))
    connection = connect_to_database()
    cursor = connection.cursor()
    
    # Tokenize e limpe a frase
    words = word_tokenize(Frase, language="portuguese")
    filtered_words = [w.lower() for w in words if w.lower() not in stop_words and w.isalpha()]

    # Obtenha o ID do comando
    cursor.execute("SELECT command_id FROM commands WHERE command_name = %s", (comando,))
    command_id = cursor.fetchone()
    if not command_id:
        return "Comando não encontrado."
    command_id = command_id[0]

    # Verifique a presença de pares de palavras na tabela edges
    total_matches = 0
    for i in range(len(filtered_words) - 1):
        cursor.execute("""SELECT COUNT(*) FROM edges
                          WHERE word_id1 = (SELECT word_id FROM words WHERE word_name = %s)
                          AND word_id2 = (SELECT word_id FROM words WHERE word_name = %s)
                          AND command_id = %s""", (filtered_words[i], filtered_words[i + 1], command_id))
        total_matches += cursor.fetchone()[0]

    # Matriz de confusão: [Predicted True, Predicted False; Actual True, Actual False]
    confusion_matrix = [[0, 0], [0, 0]]
    if total_matches > 0:  # Se houver combinações, assuma que a previsão é verdadeira
        confusion_matrix[0][0] = 1
    else:  # Se não houver combinações, assuma que a previsão é falsa
        confusion_matrix[1][1] = 1

    cursor.close()
    connection.close()

    return confusion_matrix

Neste segundo, usamos a matriz para criar uma matriz de confusão:

def plot_confusion_matrix(confusion_matrix, classes, title='Matriz de Confusão', cmap=plt.cm.Blues):
    plt.figure(figsize=(10, 7))
    sns.heatmap(confusion_matrix, annot=True, cmap=cmap, fmt='g', xticklabels=classes, yticklabels=classes)
    plt.ylabel('Comando verdadeiro')
    plt.xlabel('Comando previsto')
    plt.title(title)
    plt.show()

def Testa_Validacao():
    
    conn = connect_to_database()
    cursor = conn.cursor()
    
    # Lista de stopwords em português
    stop_words = set(stopwords.words('portuguese'))
    
    confusion_matrix = np.zeros((len(comandos), len(comandos)))

    for item in matriz_teste:
        frase, comando_verdadeiro = item
        
        # Processa a frase: remove stopwords, converte para minúsculo
        palavras = [word for word in frase.lower().split() if word not in stop_words and not word.isdigit()]

        # Encontre os IDs das palavras
        word_ids = []
        for palavra in palavras:
            cursor.execute("SELECT word_id FROM words WHERE word_name = %s", (palavra,))
            result = cursor.fetchone()
            if result:
                word_ids.append(result[0])

        # Encontre a aresta com maior frequência baseada nas palavras
        comando_previsto = None
        max_count = -1
        for i in range(len(word_ids)-1):
            cursor.execute("""
                SELECT command_id, COUNT(*) as freq
                FROM edges
                WHERE word_id1 = %s AND word_id2 = %s
                GROUP BY command_id
                ORDER BY freq DESC
                LIMIT 1
            """, (word_ids[i], word_ids[i+1]))
            result = cursor.fetchone()
            if result and result[1] > max_count:
                comando_previsto = result[0]
                max_count = result[1]
        
        if comando_previsto:
            # Converte o ID do comando para nome
            cursor.execute("SELECT command_name FROM commands WHERE command_id = %s", (comando_previsto,))
            result = cursor.fetchone()
            if result:
                comando_previsto_name = result[0]
                confusion_matrix[comandos.index(comando_verdadeiro)][comandos.index(comando_previsto_name)] += 1

    conn.close()

    # Plota a matriz de confusão
    plt.figure(figsize=(10,7))
    sns.heatmap(confusion_matrix, annot=True, cmap="YlGnBu", xticklabels=comandos, yticklabels=comandos)
    plt.xlabel('Comando Previsto')
    plt.ylabel('Comando Verdadeiro')
    plt.show()

Por fim, chamamos os dados de Testa_Validacao.

Testa_Validacao()

Gerando uma matriz conforme apresentado:

Perceba que a linha diagonal, é o que realmente desejamos. Perceba que houve intencionalmente uma duplicação do iniciar gravação, e que a segunda vez que ele apareceu, os dados não foram mostrados.

A apresentação deste problema pode ocorrer, em especial quando existir muitos grafos e muitos comandos, e seu tratamento será necessário pelo algoritmo que o propuser.

Por fim, para os amantes do fonte de graça, segue a referencia do GITHUB:

https://github.com/marcelomaurin/grafo01

IA Python
Grafos Teoria e Prática

Parte do material deste tutorial veio do CHATGPT4.

Origem

  • Problema das Pontes de Königsberg (1736): Leonhard Euler demonstrou ser impossível caminhar pela cidade de Königsberg, passando por cada uma das sete pontes exatamente uma vez e retornando ao ponto de partida. Este problema é a origem da teoria dos grafos.
grafo = {
    "A": ["B", "C"],
    "B": ["A", "D", "E"],
    "C": ["A", "F"],
    "D": ["B"],
    "E": ["B", "F"],
    "F": ["C", "E"]
}

Desenvolvimento e Conceitos Chave

  • Gustav Kirchhoff: Introduziu a matriz de incidência e estudou árvores abrangentes.
  • James Joseph Sylvester: Investigou grafos planares.

Teoremas e Problemas Notáveis

  • Teorema das quatro cores: Qualquer mapa em um plano pode ser colorido com no máximo quatro cores distintas, de modo que regiões adjacentes não tenham a mesma cor. Provado em 1976.
  • Problema do caixeiro-viajante: Busca o caminho mais curto que visita cada cidade exatamente uma vez, retornando à origem.
  • Algoritmos de Dijkstra e Floyd-Warshall: Encontram caminhos mais curtos em grafos.

Aplicações Modernas

  • Século XXI: Uso extensivo da teoria dos grafos em redes sociais, internet das coisas e sistemas complexos.

Essa síntese destaca os marcos e conceitos mais relevantes na evolução da teoria dos grafos.

Elementos dos Grafos

Os grafos são relações entre partes, e podemos entender seus elementos como se segue:

Elementos Básicos de Grafos

  1. Vértices (ou Nós): São as entidades do grafo. Em contextos práticos, podem representar cidades, computadores em uma rede, pessoas em uma rede social, entre outros.
  2. Arestas (ou Ligações): São as conexões entre os vértices. Em um mapa, por exemplo, uma aresta pode representar uma estrada conectando duas cidades.
  3. Grafos Dirigidos vs. Não Dirigidos: Em um grafo dirigido (ou digrafo), as arestas têm uma direção, indo de um vértice para outro. Em grafos não dirigidos, as arestas não têm direção.
  4. Peso: As arestas podem ter um peso associado, que pode representar distâncias, custos, etc.

Implementações

A implementação de um grafo pode ser feita de várias formas, pois é um conceito.

Porem as formas mais comuns são descritos a seguir:

Lista de Adjacência

É uma lista onde, para cada vértice do grafo, armazenamos uma lista de seus vértices adjacentes. É uma forma eficiente de armazenar grafos esparso.

Exemplo em python:

Matriz de Adjacência

A matriz de adjacência é uma das formas mais comuns de representar um grafo em termos de estrutura de dados. Ela utiliza uma matriz bidimensional (um array de arrays) para expressar as relações entre os vértices de um grafo.

Características Básicas

  1. Tamanho da Matriz: Se um grafo tem V vértices, sua matriz de adjacência será de tamanho V×V.
  2. Grafos Não Dirigidos:
    • Se o vértice i estiver conectado ao vértice j, então matriz[i][j] = 1 (ou o peso da aresta, em grafos ponderados).
    • Como o grafo é não dirigido, matriz[j][i] também será 1.
    • Em outras palavras, a matriz é simétrica em relação à sua diagonal principal.
  3. Grafos Dirigidos (Digrafos):
    • Se existir uma aresta dirigida do vértice i para o vértice j, então matriz[i][j] = 1 (ou o peso da aresta).
    • Neste caso, a matriz não é necessariamente simétrica.
  4. Grafos Ponderados:
    • Em vez de conter apenas valores binários (0 ou 1), a matriz contém os pesos das arestas. Se não houver conexão entre dois vértices, um valor padrão (geralmente 0 ou infinito) é usado.
  5. Diagonal Principal: Em muitos grafos, a diagonal principal (matriz[i][i] para todos os i) contém zeros, porque muitos grafos não têm laços (uma aresta que conecta um vértice a si mesmo). Se o grafo permitir laços, o valor na diagonal principal representará a presença (ou o peso) de tal laço.

Vantagens e Desvantagens da Matriz de Adjacência

Vantagens:

  • Acesso direto: A verificação da existência de uma aresta entre dois vértices é realizada em tempo constante.
  • Representação intuitiva: É fácil visualizar e entender, especialmente para grafos pequenos.

Desvantagens:

  • Uso de espaço: Para um grafo com V vértices, é necessário espaço, o que pode ser ineficiente para grafos grandes e esparsos.
  • Iterar sobre os vizinhos: Em um grafo esparso, descobrir os vizinhos de um vértice exige que se verifique toda uma linha ou coluna, o que pode ser ineficiente.

Exemplo

Para o grafo com vértices A,B,C e arestas (A,B),(B,C):

A matriz de adjacência (não ponderada) seria:

   A  B  C
A [0, 1, 0]
B [1, 0, 1]
C [0, 1, 0]

Se este fosse um grafo ponderado, onde a aresta (A,B) tem peso 3 e (B,C) tem peso 2, a matriz seria:

   A  B  C
A [0, 3, 0]
B [3, 0, 2]
C [0, 2, 0]

Exemplo de Solução de Problema de Rota

Apresentaremos um problema de Rota, onde teremos apenas 5 pontes para ir do ponto A ao ponto C.

Nele apresentaremos uma proposta descritiva e depois uma proposta em Python.

Vamos ao grafo dado:

Vértices:A,B,C,D,E Ligações: AB,BE,EC,DA,BC

A matriz de adjacência é uma matriz n×n onde n é o número de vértices. A entrada M(i,j)​ será 1 se o vértice i estiver ligado ao vértice j e 0 caso contrário.

Resolvendo o problema com python

Uma maneira simples de fazer isso é usando uma busca em largura (BFS). Vamos criar um exemplo em Python para isso:

import heapq

def heuristic(node, goal):
    # Como um grafo não possui coordenadas espaciais, podemos usar uma heurística trivial.
    return 0

def a_star(graph, start, goal):
    open_list = [(0, start)]
    g_costs = {node: float('inf') for node in range(len(graph))}
    g_costs[start] = 0

    came_from = {}

    while open_list:
        current_cost, current_node = heapq.heappop(open_list)

        if current_node == goal:
            path = []
            while current_node in came_from:
                path.insert(0, current_node)
                current_node = came_from[current_node]
            path.insert(0, start)
            return path

        for neighbor, cost in enumerate(graph[current_node]):
            if cost == 1:  # Existe uma aresta
                tentative_g_cost = g_costs[current_node] + 1
                if tentative_g_cost < g_costs[neighbor]:
                    came_from[neighbor] = current_node
                    g_costs[neighbor] = tentative_g_cost
                    f_cost = tentative_g_cost + heuristic(neighbor, goal)
                    heapq.heappush(open_list, (f_cost, neighbor))

    return None

graph = [
    [0, 1, 0, 1, 0],  # A
    [1, 0, 1, 0, 1],  # B
    [0, 1, 0, 0, 1],  # C
    [1, 0, 0, 0, 0],  # D
    [0, 1, 1, 0, 0]   # E
]

path = a_star(graph, 0, 2)
if path:
    print(" -> ".join(chr(65 + node) for node in path))
else:
    print("Não foi encontrado um caminho de A para C.")

Resultado:

A -> B -> C

Outros usos de Grafo:

Outro problema complexo

Agora teremos como objetivo desenvolver um NLP que irá analisar de comandos dados de forma textual, utilizando grafos como base de tomada de decisão.

Para isso temos duas tabelas:

Palavras: Contem uma lista de palavras usadas nos textos.

Comandos: Contem uma lista de comandos possíveis.

Usaremos como exemplo de vértice apenas quando duas palavras em sequencia estiverem atendidas em determinado grafo, ai ligaremos estes aos comandos.

Tabela Palavras:

Esta tabela contém uma lista de palavras chave que podem ser usadas para determinar ações.

Palavras
Grave
Diário
Reproduza
Música
Ligue
Luz

Tabela Ações:

Esta tabela associa sequências de palavras a ações específicas.

Sequência de PalavrasAção
Grave DiárioGravação de entradas no diário
Reproduza MúsicaTocar música
Ligue LuzAcender a luz

Neste caso, o grafo seria algo assim:

  1. O vértice “Grave” tem uma aresta direcionada para “Diário”, que representa a ação “Gravação de entradas no diário”.
  2. O vértice “Reproduza” tem uma aresta direcionada para “Música”, representando a ação “Tocar música”.
  3. O vértice “Ligue” tem uma aresta direcionada para “Luz”, representando a ação “Acender a luz”.

A ideia aqui é que, se alguém dissesse “Grave meu Diário”, o sistema reconheceria a sequência “Grave Diário” e acionaria a função correspondente de “Gravação de entradas no diário”. As stop words, como “meu”, seriam ignoradas pelo sistema.

Para implementar isso, você poderia criar um dicionário em Python que mapeia sequências de palavras (arestas) a ações, e então usar esse dicionário para determinar a ação apropriada com base na entrada do usuário.

Passos:

  1. Instalar as bibliotecas necessárias
  2. Configurar o banco de dados
  3. Criar a tabela de arestas no banco de dados
  4. Implementar funções em Python para interagir com o banco de dados

1. Instalar as bibliotecas necessárias

Certifique-se de que você tem o MySQL instalado e em execução. Depois, você pode instalar o conector MySQL para Python:

pip install mysql-connector-python
pip install nltk

2. Configurar o banco de dados

Crie um novo banco de dados chamado graph_db e um usuário para esse banco de dados. Você pode fazer isso usando a interface de linha de comando do MySQL ou um cliente GUI como o MySQL Workbench.

Criação do Banco

Aqui está uma sugestão de estrutura:

  1. words: Guarda os vértices do tipo palavra.
  2. commands: Guarda os vértices do tipo comando.
  3. edges: Guarda as arestas, referenciando palavras e comandos.

SQL para criação das tabelas:

CREATE DATABASE graph_db;
USE graph_db;

-- Tabela de palavras
CREATE TABLE words (
    word_id INT AUTO_INCREMENT PRIMARY KEY,
    word_name VARCHAR(50) UNIQUE NOT NULL
);

-- Tabela de comandos
CREATE TABLE commands (
    command_id INT AUTO_INCREMENT PRIMARY KEY,
    command_name VARCHAR(50) UNIQUE NOT NULL
);

-- Tabela de arestas
CREATE TABLE edges (
    edge_id INT AUTO_INCREMENT PRIMARY KEY,
    word_id1 INT,
    word_id2 INT,
    command_id INT,
    FOREIGN KEY (word_id1) REFERENCES words(word_id),
    FOREIGN KEY (word_id2) REFERENCES words(word_id),
    FOREIGN KEY (command_id) REFERENCES commands(command_id)
);

Nesta estrutura:

  • A tabela words tem um ID único para cada palavra e um nome que é exclusivo.
  • A tabela commands tem um ID único para cada comando e um nome que é exclusivo.
  • A tabela edges tem um ID único para cada aresta. As colunas word_id e command_id são chaves estrangeiras que apontam para os IDs nas tabelas words e commands, respectivamente.

Com essa estrutura, a tabela edges representa as relações entre palavras e comandos. Isso significa que cada entrada (linha) na tabela edges é uma relação entre uma palavra específica na tabela words e um comando específico na tabela commands.

Configurando aplicação e Banco de dados

Iremos primeiramente criar as ferramentas basicas para cadastrar as informações e o ambiente.

Então temos a conexão com o banco de dados.

import mysql.connector
import nltk
nltk.download("stopwords")
from nltk.corpus import stopwords


stop_words = set(stopwords.words('portuguese'))

# Configuração da conexão com o banco
DB_CONFIG = {
    "host": "localhost",
    "user": "your_username",
    "password": "your_password",
    "database": "graph_db"
}

"""Cria arestas com base em frases de exemplo."""
frases = [
        "Comece a gravação de áudio",
        "Salve esse texto importante",
        "Defina um alerta para amanhã",
        "Quero a gravação dessa reunião",
        "Salve a anotação rapidamente"
]

comandos = [
        "Iniciar gravação",
        "Salvar texto",
        "Configurar alerta",
        "Iniciar gravação",
        "Salvar anotação"
]

Criaremos a função de criar a conexão:

def connect_to_database():
    """Retorna uma conexão com o banco de dados."""
    return mysql.connector.connect(**DB_CONFIG)

Criamos agora a função de pegar o ID:

def get_id(name, table):
    """Busca o ID de um item pelo nome, na tabela especificada."""
    connection = connect_to_database()
    cursor = connection.cursor()
    
    column = "word_name" if table == "words" else "command_name"
    query = f"SELECT * FROM {table} WHERE {column}=%s"
    cursor.execute(query, (name,))
    result = cursor.fetchone()
    
    cursor.close()
    connection.close()
    
    return result[0] if result else None

Agora criamos a função que popula as arestas:

def populaArestas(word1, word2, command):
    """Popula a tabela edges com as relações entre palavras e comando."""
    connection = connect_to_database()
    cursor = connection.cursor()
    
    word1_id = get_id(word1, 'words')
    word2_id = get_id(word2, 'words')
    command_id = get_id(command, 'commands')
    
    if not word1_id or not word2_id or not command_id:
        print(f"Erro: Palavras ou comando não encontrados: '{word1}', '{word2}', '{command}'")
        return
    
    insert_query = "INSERT INTO edges (word_id, command_id) VALUES (%s, %s)"
    
    # Inserindo relação da primeira palavra com o comando
    cursor.execute(insert_query, (word1_id, command_id))
    
    # Inserindo relação da segunda palavra com o comando
    cursor.execute(insert_query, (word2_id, command_id))
    
    connection.commit()
    cursor.close()
    connection.close()

Agora iremos criar os nossos comandos, para isso temos duas funções:

  • CadastraCMD que cria o registro de comandos.
  • ExemploCMD que monta os exemplos que iremos usar.
def cadastreCMD(command_name):
    """Cadastra um novo comando na tabela commands."""
    connection = connect_to_database()
    cursor = connection.cursor()
    
    insert_query = "INSERT INTO commands (command_name) VALUES (%s)"
    
    try:
        cursor.execute(insert_query, (command_name,))
        connection.commit()
    except mysql.connector.Error as err:
        print(f"Erro ao inserir comando '{command_name}': {err}")
    
    cursor.close()
    connection.close()

def ExemploCMD():   
    for cmd in comandos:
        cadastreCMD(cmd)

Agora iremos cadastrar nossas palavras, para isso iremos usar o exemplo a seguir:

  • CadastraWords – Cadastra a lista de palavras avaliadas nos textos
  • ExemploWords – Lista as frases, criando as palavras.

Serão implementadas da seguinte forma:

def CadastraWords(word_name):
    """Cadastra uma nova palavra na tabela words."""
    connection = connect_to_database()
    cursor = connection.cursor()
    
    insert_query = "INSERT INTO words (word_name) VALUES (%s)"
    
    try:
        cursor.execute(insert_query, (word_name,))
        connection.commit()
    except mysql.connector.Error as err:
        print(f"Erro ao inserir palavra '{word_name}': {err}")
    
    cursor.close()
    connection.close()


def ExemploWords():
  for frase in frases:
        palavras = frase.split() # Separa a frase em palavras individuais
        for palavra in palavras:
            # Ignoramos palavras muito comuns (stop words) e números
            if palavra.lower() not in stop_words and not palavra.isnumeric():
                CadastraWords(palavra)

Agora iremos criar a função:

get_id_from_Table – Retorna o ID de uma dado valor de uma dada tabela para uma dada coluna.

CriaArestas – Cria a tabela de relacionamento (grafo) de Palavras.

def get_id_words(value, column_name):
    """Retorna o ID associado a um valor em uma coluna e tabela específicos."""
    connection = connect_to_database()
    cursor = connection.cursor()

    select_query = f"SELECT word_id FROM words WHERE {column_name} = %s"
    cursor.execute(select_query, (value,))

    result = cursor.fetchone()
    cursor.close()
    connection.close()

    return result[0] if result else None

def get_id_commands(value, column_name):
    """Retorna o ID associado a um valor em uma coluna e tabela específicos."""
    connection = connect_to_database()
    cursor = connection.cursor()

    select_query = f"SELECT command_id FROM commands WHERE {column_name} = %s"
    cursor.execute(select_query, (value,))

    result = cursor.fetchone()
    cursor.close()
    connection.close()

    return result[0] if result else None

def CriaArestas(Word1, Word2, Cmd):
    print(Word1)
    print(Word2)
    """Cria uma aresta associando Word1 e Word2 ao comando Cmd."""
    word1_id = get_id_words(Word1, "word_name")
    word2_id = get_id_words(Word2, "word_name")
    cmd_id = get_id_commands(Cmd,  "command_name")

    print(word1_id);
    print(word2_id);
    print(cmd_id);

    if not word1_id or not word2_id or not cmd_id:
        print("Erro: Um ou mais valores não foram encontrados no banco de dados.")
        return

    connection = connect_to_database()
    cursor = connection.cursor()
    
    insert_query = """
    INSERT INTO edges (word_id1, word_id2, command_id)
    VALUES (%s, %s, %s)
    """
    
    try:
        cursor.execute(insert_query, (word1_id, word2_id, cmd_id))
        connection.commit()
    except mysql.connector.Error as err:
        print(f"Erro ao inserir aresta: {err}")
    
    cursor.close()
    connection.close()

Agora iremos povoar as arestas. Para isso usaremos a função:

ExemploAresta – Faz o cadastro das arestas baseado nas stop-words e palavras não numéricas.

def ExemploAresta():
    for index, frase in enumerate(frases):
        palavras = [palavra for palavra in frase.split() if palavra.lower() not in stop_words and not palavra.isnumeric()]
        
        for i in range(len(palavras) - 1):
            # Criamos arestas entre palavras sequenciais e associamos a um comando
            CriaArestas(palavras[i], palavras[i+1], comandos[index])

Juntando tudo

Neste código podemos ver onde tudo se encaixa.

Onde criamos os exemplos, e finalizamos o cadastro.

connect_to_database()

ExemploWords();

ExemploCMD();

ExemploAresta();

Aqui disponibilizo o arquivo do grafo, já montado.

GITHUB:

https://github.com/marcelomaurin/grafo01

No próximo post iremos apresentar a conclusão com o projeto montado o sistema de busca, onde faremos conclusões e testes no projeto.

IA Python
SPACY – Analise do texto

Ao digitar no spacy :

 palavras = []
    for token in doc:
         token.pos_

Aparece uma série de abreviações.

Segue o significado destas aqui:

  • ADJ – adjetivo
  • ADP – Aposição
  • ADV – Adverbio
  • AUX – Verbo auxiliar
  • CONJ – Conjunção
  • CCONJ – Conjunção coordenativa
  • DET – Determinante
  • INTJ – Interjeição
  • NOUN – Substantivo
  • NUM – número
  • PART – partícula (se que)
  • PRON – pronome
  • PROPN – Nome proprio
  • PUNCT – Pontuação
  • SCONJ – Conjunção subordinada
  • SYM – Simbolo
  • VERB – verbo
  • X – outros
  • SPACE – espaço

Agora ao digitar:

 palavras = []
    for token in doc:
         token.dep_

Aparece as dependencias, que são abreviações dentro do contexto:

Segue as abreviações:

  • acl – clausula modificadora de nome
  • advcl – clausula modificadora de adverbio
  • advmod – modificadora de adverbio
  • amod – modificador de adjetivo
  • appos – modificador apposicional
  • aux – auxiliar
  • case – marcação de caixa
  • cc – conjunção coordenativa
  • ccomp – clausula complementativa
  • clf – classificador
  • compound – composição
  • conj – conjunção
  • cop – copula
  • csubj – clausula substantiva
  • dep – dependencia não especificada
  • det – determinador
  • discourse – elemento de discurso
  • dislocated – elemento deslocado
  • expl – expletive
  • fixed – expressão multi palavra fixada
  • flat – expressao multi palavra gorda
  • goeswith – indo com
  • iobj – objeto indireto
  • list – lista
  • mark – marcador
  • nmod – modificação nominal
  • nsubj – sujeito nominal
  • nummod – numeric modifier
  • obj – objeto
  • obl – nominal oblico
  • orphan – orfão
  • parataxis – parataxis
  • punct – pontuação
  • reparandum – overridden disfluency
  • root – raiz
  • vocative – vocativo
  • xcomp – open clausal complement
cmusphinx IA Programação srvOuve
Sphinx reconhecimento de audio gravado

Para este experimento iremos utilizar o seguinte texto:

https://www.nasa.gov/mp3/586447main_JFKwechoosemoonspeech.mp3

Trata-se do famoso discurso de J.F. Kenedy, sobre a necessidade de ir a lua.

A transcrição do audio, pode ser vista neste link.

JFK RICE MOON SPEECH (nasa.gov)

Preparação do Arquivo

Primeiramente precisamos converter o texto em wav.

ffmpeg -i 586447main_JFKwechoosemoonspeech.mp3 -ar 16000 -ac -1 jfk.wav

o ffmpeg, faz a conversão do texto no formato desejado para analise. O arquivo é preparado para uma taxa de amostragem de 16k.

Lendo o arquivo

pocketsphinx_continuous -infile jfk.wav > jfk.txt

Segue o que ele ouviu

i got an r n n n
not because they are easy one because they are hot
the car and gold
wilson to organize then it then asked
our energy density else
we got it at our ideas and won that we’re willing to exactly
while we are unwilling to postpone
and one nintendo wii in and then look

Podemos perceber que neste primeiro processo ele ouviu muita coisa errada, porem algumas palavras de cara deram certo. “not because they are easy”. Porem a qualidade do audio comprometeu em muito a leitura.

O parametro -infile, permite ler o arquivo origem, porem o mesmo precisa ser previamente preparado para leitura deste.

Pudemos verificar que a qualidade do audio foi importante para refletir a acuracia do audio, iremos pegar algo mais simples agora.

Segundo exemplo

Neste segundo exemplo extraímos o audio do seguinte link:

https://freesound.org/people/tim.kahn/sounds/82986/

Neste link temos uma contagem regressiva, bem pronunciada de uma voz feminina.

Iremos baixar o wav e passar um filtro conforme a sintaxe abaixo:

ffmpeg -i 82986__tim-kahn__countdown.wav -ar 16000 -ac 1 countdown.wav

Agora iremos processar o arquivo, jogando o resultado no arquivo countdown.txt

pocketsphinx_continuous -infile 82986__tim-kahn__countdown.wav > countdown.txt

Temos como conteudo, o seguinte texto:

ten
nine
eight seven
six five four three two
wind
zero

Podemos perceber que de 10 itens falados, apenas o one, não foi ouvido corretamente.

Referencias:

https://freesound.org/browse/tags/english/

maurinsoft.com.br