fbpx

19 jul
Usando Redes Neurais Recorrentes na Sugestão de Palavras

Você já teve curiosidade em saber como o Google prevê qual a próxima palavra que você vai digitar em uma pesquisa?

Isso é feito através de uma tarefa conhecida como Next Word Prediction ou Language Modelling. Essa tarefa é uma das mais básicas do Processamento de Linguagem Natural (PLN), e também é usada em teclados de smartphone, e em muitas outras aplicações, como as que envolvem sumarização de texto, por exemplo.

Neste post, apresento um pequeno tutorial de como fazer um preditor de próximas palavras utilizando Redes Neurais implementadas com a ferramenta TensorFlow.

Redes Neurais Recorrentes

Redes Neurais são modelos matemáticos usados na computação para a aprendizagem de máquina e cujo objetivo é simular o sistema nervoso de um animal para “aprender” coisas úteis para uma tarefa. Por exemplo, aprender como uma palavra pode ser traduzida para outro idioma é útil para um sistema de tradução automática. Ou para um transcritor, como o nosso Transcritor Élfico.

Essas redes são formadas por neurônios artificiais interconectados, que computam valores de entrada para fornecer uma saída, simulando o funcionamento de um neurônio biológico. Esses neurônios são unidades de processamento que interagem entre si e estão organizados em camadas. É da interação entre os neurônios e as camadas que vem a capacidade de inteligência da Rede Neural.

Quando o conteúdo é passado mais de uma vez pela rede neural para reforçar o aprendizado, ela passa a ser chamada de Rede Neural Recorrente. O seu uso leva em consideração que o que é aprendido por um neurônio biológico não deve ser esquecido, mas reutilizado para “refinar”o aprendizado.

Fonte da imagem: https://leonardoaraujosantos.gitbooks.io/artificial-inteligence/content/recurrent_neural_networks.html

Vamos ao código

Redes Neurais Recorrentes podem ser implementadas com a ferramenta TensorFlow, dentre outras, que é uma biblioteca de software para aprendizagem de máquina mantida pelo Google. Essa ferramenta fornece uma interface que torna a construção de aplicações de aprendizagem de máquina mais simples.

No nosso exemplo, nós usaremos a API Keras, que tem o objetivo de reduzir o esforço cognitivo necessário para a construção de modelos de aprendizagem de máquina. Portanto, vamos começar instalando essa API e outras dependências do nosso projeto:

pip install tensorflow
pip install keras
pip install numpy
pip install matplotlib
pip install nltk
pip install pickle
This Gist brought to you by gist-it.view rawREADME.md

Base de treinamento

Com tudo instalado, o que precisamos agora é preparar a nossa base de treinamento, que é de onde a nossa rede neural vai aprender a predizer a próxima palavra.

Nós usaremos um corpus (documento de texto) em português brasileiro, extraído a partir de notícias do site da Revista Pesquisa FAPESP. Você deve baixar o corpus usando este link e salvá-lo na pasta data, ou executar a primeira linha do trecho de código abaixo no seu terminal. Depois, precisamos extrair os arquivos baixados (segunda linha), e extrair a parte do corpus que é em português.

        wget -P ./data/ "http://www.nilc.icmc.usp.br/nilc/tools/fapesp-corpora.tar.gz"
        tar -xvzf  ./data/fapesp-corpora.tar.gz -C data
        tar -xvzf ./data/fapesp-corpora/corpora/pt.tgz -C data/fapesp-corpora/corpora/
This Gist brought to you by gist-it.view rawmakefile

O script Python a seguir tem a função de compilar os arquivos do corpus em um único TXT com texto plano. Nele é possível definir a quantidade de arquivos serão utilizados, uma vez que o corpus é muito grande e, dependendo da capacidade de processamento da máquina, usar ele por inteiro poderia fazer o modelo levar muito tempo para ser treinado. De todo modo, fica ao seu critério. Se quiser utilizar o corpus inteiro, só apagar o trecho [:FILES_NUMBER] do script.

from os import listdir
from os.path import isfile, join
dataset_path = './data/fapesp-corpora/corpora/pt/data'
onlyfiles = [f for f in listdir(dataset_path) if isfile(join(dataset_path, f))]

FILES_NUMBER = 20

trainin_text = ''
for file_ in onlyfiles[:FILES_NUMBER]:
    trainin_text += open(dataset_path+"/"+file_).read()

training_corpus = open('./data/training_corpus.txt', 'w')
training_corpus.write(trainin_text)

Treinamento

Primeiro vamos importar as bibliotecas necessárias no treinamento:

import numpy as np
from nltk.tokenize import RegexpTokenizer
from keras.models import Sequential, load_model
from keras.layers import LSTM
from keras.layers.core import Dense, Activation
from keras.optimizers import RMSprop
import matplotlib.pyplot as plt
import json
import pickle
This Gist brought to you by gist-it.view rawtrain.py

Depois, carregamos a base de treinamento.

path = 'data/training_corpus.txt'
text = open(path).read().lower()
This Gist brought to you by gist-it.view rawtrain.py

Então, utilizamos um tokenizador para dividir o corpus em tokens, ou seja, em palavras.

tokenizer = RegexpTokenizer(r'\w+')
words = tokenizer.tokenize(text)
This Gist brought to you by gist-it.view rawtrain.py

Em seguida, precisamos ter a lista das palavras únicas presentes no corpus. Além disso, precisamos de um dicionário (<chave: valor>) com cada palavra da lista de palavras únicas como chave e sua posição correspondente como valor (e.g., <clube: 128 , dos: 129, …>).

unique_words = np.unique(words)
print("Qtd. de palavras únicas:", len(unique_words))
unique_word_index = dict((c, i) for i, c in enumerate(unique_words))
This Gist brought to you by gist-it.view rawtrain.py

Engenharia de Features

Em Aprendizagem de Máquina features são características que descrevem um determinado recurso de aprendizagem. Por exemplo, se você construir um modelo para identificar objetos em fotografias, é natural que as features sejam características desses objetos (cor, tamanho, forma, etc.).

Em se tratando de texto, as features podem ser informações sobre como as palavras estão dispostas nas frases, ou como elas se relacionam, etc. No nosso caso, usaremos como features as palavras que antecedem aquela que desejamos predizer. Para isso, definimos a variável SEQUENCE_LENGTH, que determina a quantidade de palavras anteriores que usaremos na predição. Além disso, criamos uma lista vazia chamada prev_words, onde as palavras anteriores serão armazenadas, e uma lista next_words para as suas “próximas palavras” correspondentes. Preenchemos essas listas fazendo um loop em um intervalo de 3 menor que o comprimento das palavras.

SEQUENCE_LENGTH = 3
prev_words = []
next_words = []
for i in range(len(words) - SEQUENCE_LENGTH):
    prev_words.append(words[i:i + SEQUENCE_LENGTH])
    next_words.append(words[i + SEQUENCE_LENGTH])
This Gist brought to you by gist-it.view rawtrain.py

Depois, criamos dois arrays utilizando a biblioteca numpy: X para as features e Y para os rótulos correspondentes, ou seja, as próximas palavras.

X = np.zeros((len(prev_words), SEQUENCE_LENGTH, len(unique_words)), dtype=bool)
Y = np.zeros((len(next_words), len(unique_words)), dtype=bool)
for i, each_words in enumerate(prev_words):
    for j, each_word in enumerate(each_words):
        X[i, j, unique_word_index[each_word]] = 1
    Y[i, unique_word_index[next_words[i]]] = 1
This Gist brought to you by gist-it.view rawtrain.py

Esses arrays podem parecer estranhos à primeira vista, mas vale destacar que esse tipo de encoding, conhecido como One Hot Encoding torna a aprendizagem e a predição mais eficiente, como explicado no vídeo abaixo (ative as legendas):

O nosso modelo

Nós usamos um modelo LSTM com uma única camada e 128 neurônios, uma camada de conexão (Dense), e a função softmax para ativação.

model = Sequential()
model.add(LSTM(128, input_shape=(SEQUENCE_LENGTH, len(unique_words))))
model.add(Dense(len(unique_words)))
model.add(Activation('softmax'))
This Gist brought to you by gist-it.view rawtrain.py

Treinando

Vamos treinar nosso modelo em 120 epochs, valor que pode ser alterado de acordo considerando capacidade de processamento da sua máquina, sua pressa e o desempenho desejado para a sua rede neural. Usaremos o algoritmo RMSprop para otimização.

optimizer = RMSprop(lr=0.01)

model.compile(loss='categorical_crossentropy',
              optimizer=optimizer, metrics=['accuracy'])

history = model.fit(X, Y, validation_split=0.05,
                    batch_size=128, epochs=120, shuffle=True).history
This Gist brought to you by gist-it.view rawtrain.py

Por fim, salvamos nosso modelo e o histórico de treinamento, e plotamos o histórico para ver a evolução da acurácia obitida pelo modelo.

model.save('saved_models/word_prediction.h5')
pickle.dump(history, open("saved_models/history.p", "wb"))

plt.plot(history['accuracy'])
plt.plot(history['val_accuracy'])
plt.title('model accuracy')
plt.ylabel('accuracy')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.show()

plt.plot(history['loss'])
plt.plot(history['val_loss'])
plt.title('model loss')
plt.ylabel('loss')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.show()
This Gist brought to you by gist-it.view rawtrain.py

Testando

Só lembrando: o nosso modelo deve prever a próxima palavra considerando as 3 anteriores, ou as SEQUENCE_LENGH anteriores. Por isso, precisamos de um texto prévio para a predição. Esse texto é preparado pela seguinte função:

def prepare_input(text):
    x = np.zeros((1, SEQUENCE_LENGTH, len(unique_words)))
    for t, word in enumerate(text.split()):
        print(word)
        x[0, t, unique_words.index(word)] = 1
    return x
This Gist brought to you by gist-it.view rawtest.py

Usamos a seguinte função para escolher as palavras com maior probabilidade, conforme predição do modelo:

def sample(preds, top_n=3):
    preds = np.asarray(preds).astype('float64')
    preds = np.log(preds)
    exp_preds = np.exp(preds)
    preds = exp_preds / np.sum(exp_preds)
This Gist brought to you by gist-it.view rawtest.py

E fazemos a previsão assim:

def predict_completions(text, n=3):
    if text == "":
        return("0")
    x = prepare_input(text)
    preds = model.predict(x, verbose=0)[0]
    next_indices = sample(preds, n)
    return [unique_words[idx] for idx in next_indices]

q = "a relação entre a"
print("correct sentence: ", q)
seq = " ".join(tokenizer.tokenize(q.lower())[0:SEQUENCE_LENGTH])
print("Sequence: ", seq)
print("next possible words: ", predict_completions(seq, 5))
This Gist brought to you by gist-it.view rawtest.py

Geração de linguagem natural

Nós ainda podemos usar o nosso modelo para fazer geração de texto automático. Tomando como entrada 3 palavras e gerando uma frase como palavras, semelhante ao que fizemos com as Cadeias de Markov.

sentence = 'os únicos envolvidos'
words = sentence.split(" ")
while len(words) < SENTENCE_LENGTH:
    q = (["0"]*SEQUENCE_LENGTH)[:SEQUENCE_LENGTH-len(words)] + words
    sentence = ' '.join(q)
    seq = " ".join(tokenizer.tokenize(sentence.lower())[0:SEQUENCE_LENGTH])
    preds = predict_completions(seq, 1)
    if len(preds) > 0:
        words.append(preds[0])

print("Generated sentence: ", " ".join(words))

Conclusões

Nesse exemplo usamos como vocabulário apenas as palavras presentes no corpus de treinamento, que não é um número muito grande. Assim, se você quiser um modelo mais abrangente, precisa usar um vocabulário maior, como o do Freeling, por exemplo, ou de algum dicionário do português.

Pode ser que os resultados obtidos nos testes a partir da execução do nosso modelo, não sejam muito bons. Para melhorá-los, você pode tentar aumentar o tamanho do corpus de treinamento, a quantidade de épocas, ou utilizar Word Embeddings para a extração de features (Cenas dos próximos capítulos).

O código usado neste tutorial está disponível no GitHub.

Referências

Publicado por Clube dos Geeks

10 jun
9 Must-Read Python Books in 2021

Which book would you recommend someone to read?

“The joy of coding Python should be in seeing short, concise, readable classes that express a lot of action in a small amount of clear code — not in reams of trivial code that bores the reader to death.”

— Guido van Rossum

Python’s popularity and all-around nature make it the perfect programming language for a diverse range of projects. Moreover, this popularity and wide adoption by the corporations has led to a sharp demand in the industry for skilled Python developers.

Today, there are literally tons of resources, such as books, YouTube channels, podcasts, GitHub repos, online courses, and websites that extensively cover a variety of topics in Python.

Python Books

Just take it slow, and do not hurt your brain.

The internet is filled with loads of convenient mediums to learn everything about Python. Although we discussed the more widely adopted mediums earlier, books still remain an all-time hot favorite among learners. The thing that makes books so much popular among Python learners is that they allow the reader to absorb and practice the content at their own time and pace.

Stick with us while we uncover a handful of more well-known Python books for learners of all skill levels in the list below.

1. Think Python

  • Author: Allen B. Downey
  • Publisher: O’Reilly
  • Difficulty Level: Beginner

Think Python

Cover of the book ”Think Python”

“For all live births, the mean pregnancy length is 38.6 weeks, the standard deviation is 2.7 weeks, which means we should expect deviations of 2–3 weeks to be common.”

— Allen B. Downey

“Think Python” is undoubtedly one of the best books out there to get into the basics of Python programming. The book offers beginners an excellent entry point into the world of Python by taking on a more gradual approach to teaching the topics.

The latest edition of the book updates all the included code examples with their Python 3 counterpart to offer learners the most up-to-date learning experience. The book also comes with a number of exercises, case studies, and detailed explanations about the topics. Some key highlights of “Think Python” are listed below:

● Offers beginners the know-how to jump into learning Python right from their browser.

● Provides a clear definition of the concepts in Python.

● Emphasis on debugging to teach the readers to quickly find, resolve, and avoid bugs.

2. Python Programming: An Introduction to Computer Science

  • Author: John M. Zelle
  • Publisher: Franklin, Beedle
  • Difficulty Level: Beginner

Python Programming: An Introduction to Computer Science

Cover of the book ”Python Programming: An Introduction to Computer Science”

Thanks to the ease and simplicity of Python, it can be an awesome first programming language for beginners. Similarly, “Python Programming: An Introduction to Computer Science” has been written with a singular goal of making the fundamentals of Python as easy as possible for beginners.

The author targeted this book to be used as a college-level textbook, and for that, the author has taken more of a traditional approach to teaching Python by focussing on problem-solving, program design, and programming as core skills. So, if you are a college student and want to learn Python, we recommend giving this book a try. Key highlights of this book are listed below:

● Focus on using an easy-to-use graphics package to encourage the use of such GUI packages

● Loads of interesting examples and end-of-chapter exercises

● Focus on helping the reader master the fundamentals without overwhelming them with the entirety of Python topics

3. Django for Beginners: Build Websites with Python and Django

  • Author: William S. Vincent
  • Publisher: WelcomeToCode
  • Difficulty Level: Beginner

Build websites with Python and Django

Cover of the book ”Django for Beginners: Build Websites with Python and Django”

Django has become one of the most popular web application development frameworks among modern developers. Built with Python, Django has proven itself capable enough to offer virtually everything needed for building stunning web applications without diving into core Python.

Starting with a simple Hello World, “Django for Beginners: Build Websites with Python and Django” flawlessly delivers the gradual approach to teaching you how you can build full-scale Django applications. The book also focuses on teaching you the best practices for maintaining security, customizing the look and feel, and effective testing of your app.

Apart from the Hello World app, the rest of the apps covered in this book include the following:

● A Pages app

● A Message Board app

● A Blog app

● A Newspaper app

4. Python Pocket Reference: Python in Your Pocket

  • Author: Mark Lutz
  • Publisher: O’Reilly
  • Difficulty Level: Intermediate

Python Pocket Reference

Cover of the book ”Python Pocket Reference: Python in Your Pocket”

“In the Python way of thinking, explicit is better than implicit, and simple is better than complex.”
― Mark Lutz

Python Pocket Reference: Python in Your Pocket” is not really a full-on Python learning resource but instead offers instant references to developers on a host of Python topics. The author has intended this book to be used as a companion to other more fuller Python books that offer tutorials, code examples, and other learning materials.

The latest edition of the book covers all the need-to-know content from Python 3.4 and 2.7 while also covering the difference between the two versions. Mark’s pocket reference is targeted towards developers with some experience with Python programming. The book covers several topics, such as:

● Commonly used standard library modules and extensions

● Syntax for statements for creating and processing objects

● Object-oriented programming tools

● Built-in object types, like numbers, dictionaries, and more

● Special operator overloading methods

5. Python Machine Learning: Machine Learning and Deep Learning With Python, scikit-Learn, and TensorFlow 2

  • Author: Sebastian Raschka & Vahid Mirjalili
  • Publisher: Packt Publishing
  • Difficulty Level: Intermediate

Python Machine Learning

Cover of the book ”Python Machine Learning: Machine Learning and Deep Learning with Python, scikit-learn, and TensorFlow 2”

Thanks to Python, the popularity of Machine Learning has skyrocketed in recent years. Python Machine Learning: Machine Learning and Deep Learning with Python, scikit-learn, and TensorFlow 2” is aimed towards both Python developers and data scientists packing the foundational knowledge of the programming language, who are eager to create impressive Machine Learning and Deep Learning-powered smart solutions. If you’re either one of these, this book will be the perfect fit for you.

When it comes to the contents of this book, apart from the necessary introduction, the third edition provides plenty of coverage on Machine Learning topics, such as:

● Training simple ML algorithms

● Classifiers with the Scikit-learn package

● Steps on building good datasets

● Embedding Machine Learning models to applications

6. Deep Learning with Python

  • Author: François Chollet
  • Publisher: Manning Publications
  • Difficulty Level: Intermediate

Deep Learning with Python

Cover of the book ” Deep Learning with Python”

Deep Learning with Python” is an excellent book that simplifies the intricacies of Deep Learning using Python. The author of this book is none other than the creator of the famed Deep Learning Python API called Keras. François’ book uses Keras as the bridge between the world of Deep Learning and Python to gradually build your understanding of the subject with intuitive explanations and practical examples.

The book has been split into parts, covering most of the introductory stuff about Machine Learning and Neural Networks and the practical application of Deep Learning for real-world challenges and tasks, such as:

● Computer Vision

● Text and sequences

● Best practices

● Generative Deep Learning

7. Python in a Nutshell: A Desktop Quick Reference

  • Author: Alex Martelli, Anna Ravenscroft & Steve Holden
  • Publisher: O’Reilly
  • Difficulty Level: Intermediate

Python in a Nutshell

Cover of the book ”Python in a Nutshell: A Desktop Quick Reference”

No matter if you have worked with Python in the past or you’re a veteran developer looking to pick up Python, you’ll find “Python in a Nutshell: A Desktop Quick Reference” exceptionally useful. The book covers a range of widely used topics from the world of Python and serves as a quick reference for the Python programming language.

The authors of the book have split it into five parts covering everything from the basics to the core features as well as the more advanced ones. A brief explanation about those five parts is below:

● Part I: Covers the introduction and explanation about the Python interpreter

● Part II: Covers the core python language and its built-in topics

● Part III: Covers the Python library and extension modules

● Part IV: Covers network and web programming with Python

 Part V: Covers extending Python programs, it’s distribution and migration from v2 to v3

8. Programming Python: Powerful Object-Oriented Programming

  • Author: Mark Lutz
  • Publisher: O’Reilly
  • Difficulty Level: Intermediate

Programming Python

Cover of the book ”Programming Python: Powerful Object-Oriented Programming”

Let’s say you’ve understood the introductory topics in Python with great clarity, but what next?

The most obvious thing to do next is to test out your newfound knowledge by developing a simple yet practical Python application.

If domain-specific examples are what you’re looking for, we can’t recommend Lutz’s book “Programming Python: Powerful Object-Oriented Programming” enough. The book is perfect for intermediate Python developers and covers in-depth tutorials for some of the widely used applications from a diverse range of topics listed below:

● A brief and quick introduction to Python

● System programming with system tools and files and directories

● GUI programming with Tkinter

● Internet programming with client- and server-side scripting, network scripting, and an email client

9. Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit

  • Author: Steven Bird, Ewan Klein & Edward Loper
  • Publisher: O’Reilly
  • Difficulty Level: Advanced

Natural Language Processing with Python

Cover of the book ”Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit”

Natural Language Processing has become a vital element for modern devices as they play a key role in offering smart features like predictive text, handwriting recognition, human-friendly language translation, and more. The book “Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit” contains sufficient learning resources for those taking their first steps into the world of programming or those new to Python.

This book would be more suitable for developers with a strong grasp of Python fundamentals as it is filled with hundreds of detailed examples and exercises. It uses the Python library NLTK to teach topics, such as:

● Introduction to NLP

● Accessing text and lexical resources

● Processing raw text

● Categorizing and tagging words

● Text classification

Conclusion

Learning Python can open a slew of lucrative opportunities for you. If you are eager to snag one of the most trending and high-paying job profiles of the century, we recommend getting a solid understanding of the concepts in Python. The books we covered in this article do an exceptional job explaining even the most intricate Python topics in a reader-friendly manner.

 Published by Better Programming

02 jun
Como balão dirigido por inteligência artificial surpreendeu criadores

Os balões de hélio do Projeto Loon, do Google, tinham como objetivo levar acesso à internet a partes remotas do mundo

A equipe do Google olhava perplexa para as telas de seus computadores.

Eles haviam passado vários meses aperfeiçoando um algoritmo desenvolvido para conduzir um balão de hélio não tripulado de Porto Rico ao Peru. Mas algo estava errado.

O balão, controlado por inteligência artificial (IA), continuava desviando da rota.

Salvatore Candido, do agora extinto Projeto Loon, do Google, que tinha como objetivo levar acesso à internet a áreas remotas do planeta por meio de balões, não conseguia explicar a trajetória da aeronave.

Seus colegas assumiram manualmente o controle do sistema e o colocaram de volta na rota.

Só mais tarde eles perceberam o que estava acontecendo. Inesperadamente, a inteligência artificial a bordo do balão havia aprendido a recriar uma antiga técnica de navegação desenvolvida por humanos há séculos, senão milhares de anos.

A técnica envolve conduzir a embarcação em ziguezague contra o vento, de modo que seja possível avançar mais ou menos na direção desejada.

Sob condições climáticas desfavoráveis, os balões autônomos aprenderam a se virar sozinhos. O fato de terem feito isso, de forma espontânea, surpreendeu a todos, inclusive aos pesquisadores que trabalhavam no projeto.

“Rapidamente percebemos que tinham sido mais espertos que a gente, quando o primeiro balão autorizado a executar totalmente essa técnica bateu um recorde de tempo de voo de Porto Rico ao Peru”, escreveu Candido em um blog sobre o projeto.

“Nunca me senti tão inteligente e tão burro ao mesmo tempo.”

Este é exatamente o tipo de coisa que pode acontecer quando a inteligência artificial é deixada à sua própria sorte.

Diferentemente dos programas de computador tradicionais, as IAs são projetadas para explorar e desenvolver novas abordagens para tarefas sobre as quais seus engenheiros humanos não lhes falaram explicitamente.

Mas enquanto aprendem como fazer essas tarefas, as IAs às vezes apresentam uma abordagem tão inovadora que pode surpreender até mesmo as pessoas que trabalham com esses sistemas o tempo todo.

Isso pode ser algo bom, mas também pode tornar as coisas controladas por inteligência artificial perigosamente imprevisíveis — robôs e carros autônomos podem acabar tomando decisões que colocam os humanos em perigo.

Como é possível para um sistema de inteligência artificial “superar” seus mestres humanos? E será que poderíamos controlar as mentes das máquinas de alguma forma, para garantir que não aconteça nenhum desastre imprevisto?

Na comunidade de IA, há um caso de criatividade que parece ser mais citado do que qualquer outro.

O momento que realmente empolgou as pessoas sobre o que a inteligência artificial pode fazer, diz Mark Riedl, do Instituto de Tecnologia da Geórgia, nos EUA, foi quando o DeepMind, laboratório de IA do Google, mostrou como um sistema de machine learning (aprendizagem automática) dominou o antigo jogo de tabuleiro Go — e depois derrotou um dos melhores jogadores humanos do mundo.

Balão do Projeto Loon

CRÉDITO,LOON

A inteligência artificial que controlava os balões do Projeto Loon aprendeu uma técnica de navegação para desafiar o vento

“Isso acabou demonstrando que havia novas estratégias ou táticas para contra-atacar um jogador que ninguém realmente havia usado antes — ou pelo menos muitas pessoas não sabiam a respeito”, explica Riedl.

E ainda assim, um inocente jogo de Go desperta sentimentos diferentes entre as pessoas.

Riscos

Por um lado, o DeepMind descreveu orgulhosamente as maneiras pelas quais seu sistema, o AlphaGo, foi capaz de “inovar” e revelar novas abordagens para um jogo que os humanos vêm jogando há milênios.

Por outro lado, alguns questionaram se uma inteligência artificial tão inovadora poderia um dia representar um sério risco para os humanos.

“É ridículo pensar que seremos capazes de prever ou gerenciar o pior comportamento das inteligências artificiais quando não podemos, na verdade, imaginar seu possível comportamento”, escreveu Jonathan Tapson, da Universidade de Western Sydney, na Austrália, após a vitória histórica do AlphaGo.

É importante lembrar, diz Riedl, que as inteligências artificiais não pensam realmente como os humanos. Suas redes neurais são, de fato, vagamente inspiradas em cérebros de animais, mas podem ser melhor descritas como “dispositivos de exploração”.

Quando tentam resolver uma tarefa ou problema, elas não trazem consigo muitas, se é que alguma, ideia preconcebida sobre o mundo em geral. Simplesmente tentam — às vezes, milhões de vezes — encontrar uma solução.

“Nós, humanos, trazemos conosco muita bagagem mental, pensamos nas regras”, explica Riedl.

“Os sistemas de inteligência artificial nem sequer entendem as regras, então eles mexem nas coisas de maneira muito aleatória.”

Dessa forma, as IAs poderiam ser descritas como o equivalente em silício de pessoas com Síndrome do Sábio (ou de Savant), acrescenta Riedl, citando a condição em que um indivíduo tem uma deficiência mental grave, mas também possui uma habilidade extraordinária, geralmente relacionada à memória.

Uma maneira pela qual as IAs podem nos surpreender envolve sua capacidade de lidar com problemas radicalmente diferentes, mas usando o mesmo sistema básico.

Recentemente, uma ferramenta de machine learning desenvolvida para gerar parágrafos de texto foi requisitada a executar uma função muito diferente: jogar uma partida de xadrez.

O sistema em questão se chama GPT-2 e foi criado pela OpenAI. Treinado por meio de milhões de artigos de notícias online e páginas da web, o GPT-2 é capaz de prever a próxima palavra em uma frase com base nas palavras anteriores.

Uma vez que os movimentos de xadrez podem ser representados em caracteres alfanuméricos, “Be5” para mover um bispo, por exemplo, o desenvolvedor Shawn Presser pensou que se ele treinasse o algoritmo por meio de registros de partidas de xadrez, a ferramenta poderia aprender como jogar ao descobrir sequências desejáveis de movimentos.

Presser treinou o sistema com 2,4 milhões de jogos de xadrez.

“Foi muito bacana ver o mecanismo de xadrez ganhando vida”, diz ele.

“Eu não tinha certeza se iria funcionar.”

Mas deu certo. Não é tão bom quanto computadores especialmente projetados para xadrez — mas é capaz de jogar partidas difíceis com sucesso.

Veículo autônomo

CRÉDITO,NICHOLAS KAMM/GETTY IMAGES

Com a inteligência artificial começando a ser usada no mundo real, é importante saber se ela fará algo inesperado

Segundo Presser, o experimento mostra que o sistema GPT-2 tem muitos recursos inexplorados. Um “sábio” com dom para o xadrez.

Uma versão posterior do mesmo software surpreendeu os web designers quando um desenvolvedor o treinou brevemente para produzir códigos para exibir itens em uma página, como textos e botões.

A inteligência artificial gerou o código apropriado, embora tudo o que tinha para seguir adiante eram descrições simples como “texto em vermelho que diz ‘eu te amo’ e um botão com ‘ok’ nele”.

Claramente, ela adquiriu a essência básica de web design, mas após um treinamento surpreendentemente curto.

Uma área em que as IAs há muito tempo impressionam é na de videogames.

Há inúmeros casos na comunidade de inteligência artificial sobre coisas surpreendentes que os algoritmos têm feito em ambientes virtuais.

Os algoritmos costumam ser testados e aperfeiçoados, para ver o quão capazes eles realmente são, em espaços semelhantes aos de videogames.

Em 2019, a OpenAI ganhou as manchetes com um vídeo sobre um jogo de pique-esconde jogado por personagens controlados por machine learning.

Para a surpresa dos pesquisadores, aqueles que estavam “procurando” acabaram aprendendo que podiam pular em cima dos itens e “surfá-los” para ter acesso aos recintos onde havia personagens escondidos. Em outras palavras, aprenderam a burlar as regras do jogo a seu favor.

Uma estratégia de tentativa e erro pode resultar em todos os tipos de comportamentos interessantes. Mas nem sempre levam ao sucesso.

Dois anos atrás, Victoria Krakovna, pesquisadora da DeepMind, pediu aos leitores de seu blog que compartilhassem histórias em que as IAs resolveram problemas complicados — mas de maneiras imprevisivelmente inaceitáveis.

A longa lista de exemplos que ela reuniu é fascinante. Entre eles, está um algoritmo de jogo que aprendeu a se matar no final da primeira fase — para evitar morrer na segunda fase. O objetivo de não morrer na segunda fase foi alcançado, mas não de uma forma particularmente impressionante.

Outro algoritmo descobriu que poderia pular de um penhasco em um jogo e levar um oponente consigo para a morte. Isso deu à IA pontos suficientes para ganhar uma vida extra e continuar repetindo essa tática suicida em um loop infinito.

O pesquisador de inteligência artificial de videogame Julian Togelius, da Escola de Engenharia Tandon da Universidade de Nova York, nos EUA, pode explicar o que está acontecendo.

Ele diz que esses são exemplos clássicos de erros de “alocação de recompensa”. Quando uma inteligência artificial é solicitada a realizar algo, ela pode descobrir métodos estranhos e inesperados de atingir seu objetivo, onde o fim sempre justifica os meios.

Nós, humanos, raramente adotamos tal postura. Os meios e as regras que preveem como devemos jogar são importantes.

Togelius e seus colegas descobriram que esse viés voltado a objetivos pode ser exposto em sistemas de inteligência artificial quando eles são colocados à prova em condições especiais.

Em experimentos recentes, sua equipe descobriu que uma IA solicitada a investir dinheiro em um banco, correria para um canto próximo do saguão do banco virtual e esperaria para receber um retorno sobre o investimento.

Togelius diz que o algoritmo aprendeu a associar correr para o canto com a obtenção de uma recompensa financeira, embora não houvesse nenhuma relação real entre seu movimento e o quanto era pago.

Isso, segundo ele, é mais ou menos como se a inteligência artificial desenvolvesse uma superstição: “Você recebeu uma recompensa ou punição por algo — mas por que você recebeu?”

Essa é uma das armadilhas do “aprendizado por reforço”, em que uma inteligência artificial acaba planejando uma estratégia equivocada com base no que encontra em seu ambiente.

A inteligência artificial não sabe por que teve sucesso, ela só pode basear suas ações em associações aprendidas. Um pouco como as primeiras culturas humanas que começaram a associar rituais a mudanças no clima, por exemplo. Ou os pombos.

Em 1948, um psicólogo americano publicou um artigo descrevendo um experimento incomum em que colocava pombos em gaiolas e os recompensava com comida de forma intermitente.

Os pombos começaram a associar a comida a o que quer que estivessem fazendo na ocasião — seja batendo as asas ou executando movimentos semelhantes a uma dança. Eles então repetiam esses comportamentos, aparentemente na expectativa de que viria uma recompensa a seguir.

Pombos

CRÉDITO,BINNUR EGE GURUN KOCAK/GETTY IMAGES

Os pombos podem aprender a associar a comida a certos comportamentos, e as IAs podem exibir postura semelhante

Há uma grande diferença entre as IAs dos jogos testados por Togelius e os animais vivos usados ​​pelo psicólogo, mas Togelius sugere que o mesmo fenômeno parece estar em ação: a recompensa se torna erroneamente associada a um comportamento particular.

Embora os pesquisadores de inteligência artificial possam se surpreender com os caminhos trilhados pelos sistemas de machine learning, isso não significa necessariamente que tenham admiração por eles.

“Nunca tive a sensação de que esses agentes pensem por si só”, afirma Raia Hadsell, do DeepMind.

Hadsell fez experiências com muitas IAs que encontraram soluções interessantes e inovadoras para problemas não previstos por ela ou seus colegas.

Ela destaca que é exatamente por isso que os pesquisadores procuram aperfeiçoar as IAs em primeiro lugar — para que possam alcançar coisas que os humanos não conseguem por conta própria.

E ela argumenta que os produtos que usam inteligência artificial, como carros autônomos, podem ser rigorosamente testados para garantir que qualquer imprevisibilidade esteja dentro de certos limites aceitáveis.

“Você pode dar garantias razoáveis ​​sobre o comportamento com base em evidências empíricas”, diz ela.

O tempo dirá se todas as empresas que vendem produtos construídos com inteligência artificial são escrupulosas nesse aspecto.

Mas, ao mesmo tempo, é importante observar que as IAs que demonstram comportamentos inesperados não estão de forma alguma confinadas a ambientes de pesquisa. Elas já estão atuando em produtos comerciais.

No ano passado, um braço robótico que trabalhava em uma fábrica em Berlim, desenvolvido pela empresa americana Covariant, apresentou maneiras inesperadas de classificar os itens à medida que eles passavam em uma esteira rolante.

Apesar de não ter sido especialmente programada para isso, a inteligência artificial que controla o braço aprendeu a mirar no centro dos itens em embalagens transparentes para ajudar a garantir que os pegaria com sucesso todas as vezes.

Como esses objetos podem se confundir quando se sobrepõem, devido ao material transparente, mirar com menos precisão significa que o robô pode não conseguir pegar o item.

“Isso evita a sobreposição de objetos nos cantos e, em vez disso, mira na superfície mais fácil de agarrar”, afirma Peter Chen, cofundador e presidente-executivo da Covariant.

“Isso realmente nos surpreendeu.”

Em paralelo, Hadsell diz que sua equipe testou recentemente um braço robótico que passa diferentes blocos por meio de orifícios de formatos variados.

A mão do robô era bastante desajeitada, então a inteligência artificial que o controlava aprendeu que, pegando e soltando repetidamente o bloco, poderia colocá-lo na posição certa para então agarrá-lo e passá-lo facilmente pelo orifício apropriado — em vez de tentar manobrá-lo usando a garra.

Tudo isso ilustra uma questão levantada por Jeff Clune, da OpenAI, que recentemente colaborou com pesquisadores do mundo todo para coletar exemplos de IAs que desenvolveram soluções inteligentes para problemas.

Clune diz que a natureza exploratória da inteligência artificial ​​é fundamental para seu sucesso futuro.

“Conforme estamos ampliando esses sistemas de inteligência artificial, o que estamos vendo é que as coisas que eles fazem de maneira criativa e impressionante não são mais curiosidades acadêmicas”, afirma.

Como as IAs encontram formas melhores de diagnosticar doenças ou entregar suprimentos de emergência, elas até salvam vidas graças à sua capacidade de encontrar novas maneiras de resolver velhos problemas, acrescenta Clune.

Mas ele acredita que aqueles que desenvolvem tais sistemas precisam ser abertos e honestos sobre sua natureza imprevisível, para ajudar a população a entender como a inteligência artificial funciona.

Afinal, é uma faca de dois gumes — a promessa e a ameaça da inteligência artificial fazem parte do mesmo pacote. O que será que elas vão inventar a seguir?

Publicado por BBC Future

17 maio
What Happens When Memes Are Commodities?

Putting a dollar value on the language of the internet will be weird

Zoe Roth, aka Disaster Girl

For over a decade, the image of a young girl smirking in the foreground as a home in the background is engulfed in flames has circulated as fodder for countless memes. The picture, known simply as Disaster Girl, though originally taken by an amateur photographer — who then entered it into an online contest, sparking its journey across the web — has all but officially entered the public domain. That is, until Thursday, at least technically speaking.

The Raleigh News & Observer reports that the then-young girl in the photo, Zoe Roth (now 21), recently sold the image as a Non-Fungible Token, or NFT, for 180 Ether — the cryptocurrency for the Etherium blockchain — worth somewhere in the vicinity of $450,000 at the time (at writing, 180 Ether is valued at approximately $500,000). With the sale, Roth has also assured that she will receive 10% of any sale of the NFT in the future — a kind of digital residual.

Yet, the image, like any digital asset, remains public. If anything, the Disaster Girl memes will likely spread even more with news of the sale. But is the image still the same, now that it’s technically been sold? It’s unclear from the coverage whether the copyright to Disaster Girl was transferred as part of the sale of the NFT, but even if not, there is something fundamental about the image that’s now different.

While memes have been endlessly replicated on consumer products for years (and things like dances have been used to create profits their original creators never see) — that is, memes are commodified — the meme itself, whether an image or an action, has remained transferable at no cost. These have been visual or social commodities, not in and of themselves financial commodities. But what happens when a meme image is made into an NFT, when it is sold to an owner, even if that owner doesn’t retain the copyright?

In practice, there is no difference. For the internet at large, Disaster Girl is the same, being far too popular for far too long to be reined in at this point. Disaster Girl is ours, no matter who owns the NFT. But for meme images yet to emerge, Disaster Girl’s sale raises the possibility that the underlying assumptions about meme images will likely change.

What has made countless meme images interesting, not to mention popular, has been that they are impossible to co-opt into a single use, impossible to be singularly defined by any single individual. Memes remain one of the few lasting products of a chaotic internet, unpredictable and frequently morphing in unexpected and inexplicable ways into distinct, accepted signifiers — the visual language of our online world.

As more meme images invariably become NFTs, even if they still function as they always have, temporally, they will have undergone a metamorphosis from an organic product of the internet into one that is immediately subject to a different kind of co-option — not simply into a slice of internet vernacular, but a piece of a different world altogether, the world of art. They will become part of the world of commerce. This means, in the future, when you share Disaster Girl or any other NFT-linked meme, you’re doing more than contributing to the language of the internet; you’re also affecting its strict monetary value.

It’s language, commodified.

Published by Wired 

07 maio
MCTI inaugura parque que demonstra tecnologias em internet das coisas


O Ministério da Ciência, Tecnologia e Inovações (MCTI) e o Centro Universitário Facens inauguraram hoje (30), em Sorocaba, no interior paulista, o Centro de Referência IoT e Tecnologias 4.0, espaço destinado a demonstrações práticas de tecnologias que fazem uso da chamada internet das coisas (IoT), advento que, graças à quinta geração da internet (5G) possibilitará o uso coordenado e inteligente de aparelhos para controlar diversas atividades.

Ao conectar objetos do cotidiano – como eletrodomésticos, smartphones, roupas e automóveis – à internet (e entre si), essa tecnologia permitirá até mesmo a realização de procedimentos médicos delicados a distância, além de sistemas de direção automática de carros e as mais diversas tecnologias de automação e inteligência artificial, inclusive para a agricultura, a indústria e as cidades.

O centro de referência inaugurado nesta sexta-feira tornará possível a demonstração de soluções em IoT em áreas consideradas prioritárias segundo o Plano Nacional de Internet das Coisas, que abrange ações em frentes como o Cidades 4.0, Saúde 4.0, Agro 4.0, Indústria 4.0, Turismo 4.0 e Educação 4.0.

“A ideia é que o centro ofereça programas para a promoção do ensino, formação, popularização e divulgação da ciência e tecnologia no país, promovendo o ensino inovador, empreendedorismo e desenvolvimento das demandas locais, com o engajamento da indústria, academia e governo”, informa o ministério.

Em nota, o ministro da Ciência, Tecnologia e Inovações, Marcos Pontes, diz que é papel da pasta direcionar o uso da internet das coisas e preparar a população para lidar com as tecnologias do futuro.

Enquanto o avanço das tecnologias vai tornando muitas tarefas mais eficientes e precisas, é preciso lembrar que é necessário criar empregos alinhados a esse progresso para as pessoas, afirma Pontes. “Nós não podemos parar a tecnologia para manter os postos de trabalho, mas podemos preparar e requalificar os profissionais, assim como formar as novas gerações já adaptadas para esse novo cenário.”

Segundo o MCTI, o centro de referência de Sorocaba estará integrado ao Smart Campus Facens – laboratório voltado para a solução de “problemas reais, conectando a comunidade acadêmica, mercado, empresas e sociedade, por meio de projetos que tornem as cidades mais humanas, inteligentes e sustentáveis”.

 

Publicado por UOL

16 abr
Entenda o que é IoT na indústria 4.0 e porque isso é uma aposta que vai revolucionar o mercado industrial

Veja também exemplos de como esse conceito já está atuando em alguns mercados

 

Imagine conectar diversos dispositivos, através da internet, que podem trocar informações entre si? Essa é a ideia por trás da Internet das Coisas (IoT). Aplicado à indústria, a conexão entre esses diversos dispositivos é a IoT na indústria 4.0.

Indústria 4.0 é conhecida como a Quarta Revolução Industrial, caracterizada pela introdução da tecnologia da informação na indústria. Essa é a nova tendência que está sendo adotada pelas grandes corporações para sair na frente em seu mercado.

Para entender essa ideia de IoT na indústria 4.0, vamos fazer uma analogia com o funcionamento do cérebro humano. Em 1926, Nikola Tesla, inventor nos campos de engenharia mecânica e eletrotécnica, disse:

 

“Quando a tecnologia sem fio for perfeitamente aplicável, a Terra inteira será convertida em um imenso cérebro, o que de fato é, com todas as coisas sendo partículas de um todo real e rítmico”

 

Sendo assim, essa analogia ao nosso cérebro permite compreender melhor a ideia de IoT como uma rede conectada. Essa rede por si só possui imensas quantidades de conexões entre as células, compondo a rede do nosso sistema nervoso.

Portanto, assim como células diferentes possuem finalidades diferentes, os produtos conectados possuem diferentes funções e aplicabilidades, porém estão unidos sob a mesma rede.

As conexões geradas pela IoT

Essa conexão que a IoT na indústria 4.0 fornece, gera oportunidades inéditas, criando um grande círculo de valor agregado aos produtos e serviços que dela se utilizam. Entenda melhor como isso pode funcionar na prática, a partir da sequência de fatores a seguir:

  • A chuva influencia a produção de matéria-prima
  • O valor do produto final sofre alterações no mercado mundial
  • A quantidade de produtos derivados estocados impacta a economia nacional
  • Ocorre uma repentina elevação da demanda, cujo fornecimento de insumos não consegue suprir.
  • Em vez da produção ser intensificada, será interrompida para uma parada programada de manutenção.

Sendo assim, imagine um monitoramento integrado de todos esses acontecimentos, gerando dados que se comunicam em tempo real por meio do que pode-se considerar uma grande base de dados unificada.

A partir desse banco de dados, seriam tomadas decisões automáticas através da comunicação online entre os dispositivos interconectados responsáveis por monitorar esses eventos.

Com base nas decisões tomadas por meio da visão global de todos esses fatores, o processo produtivo se torna mais eficiente, reduzindo os impactos negativos e maximizando a cadeia de valor de determinado setor industrial.

Então, essa integração não só interna como externa à indústria, é a base da IoT na indústria 4.0. A nível mundial, a Accenture realizou um estudo para ter uma projeção do impacto na economia com a internet industrial das coisas (IIoT) nos próximos anos.

Diante disso, as previsões mais otimistas apresentam que o valor gerado pelo investimento em IIoT chegará a US $ 15 trilhões do PIB global até 2030. Esse estudo pode ser consultado através deste link.

Depois desse panorama mundial, vamos aprofundar mais nos assuntos. Aqui nesse artigo sobre IoT na indústria 4.0, você pode entender melhor sobre:

  • O que é a indústria 4.0
  • O que é IoT
  • Como a IoT na indústria 4.0 pode revolucionar a indústria
  • Benefícios da IoT na indústria 4.0

 

Afinal, o que é a indústria 4.0?

IoT na industria 4.0

O surgimento da indústria 4.0 veio por meio dos alemães que queriam elevar sua competitividade com a manufatura asiática. Por isso, definiram uma estratégia de governo para aumentar a produtividade da indústria através da inovação.

Segundo a chanceler da Alemanha, Angela Merkel:

 

“A indústria 4.0 é a transformação completa de toda a esfera da produção industrial através da fusão da tecnologia digital e da internet com a indústria convencional.”

 

Apesar da disseminação do conceito mundialmente, ele ainda não é uma realidade. Essa é a primeira vez que uma revolução industrial é anunciada antes de acontecer. Todos os acontecimentos estão sendo previstos como tendências.

Dessa forma, a Quarta Revolução Industrial está sendo motivada por três grandes mudanças no mundo industrial produtivo. São elas:

  • Avanço exponencial da capacidade dos computadores;
  • Imensa quantidade de informação digitalizada;
  • Novas estratégias de inovação (pessoas, pesquisa e tecnologia).

Essas mudanças permitem que tudo dentro e ao redor de uma planta operacional (fornecedores, distribuidores, unidades fabris, e até o produto) sejam conectados digitalmente, proporcionando uma cadeia de valor altamente integrada.

 

Em meio a tudo isso, o que significa a Internet das Coisas (IoT)?

A IoT na indústria 4.0 é basicamente a responsável pela integração de todos os dispositivos dentro e externo à planta. A IoT é o conceito que representa a conexão.

 

“A Internet das Coisas é uma rede de objetos físicos, sistemas, plataformas e aplicativos com tecnologia embarcada para comunicar, sentir ou interagir com ambientes internos e externos.”  

 

Quando se diz que a internet está na indústria, no chão de fábrica, devemos relacionar isso a um ambiente onde todos os equipamentos e máquinas estão conectadas em redes e disponibilizando informações de forma única.

Desse modo, especificamente quando falamos do universo da Internet das Coisas na indústria, nos referimos a Industrial Internet of Things (IIoT). Conheça o nosso artigo sobre IIoT para se aprofundar no assunto e entender como esse conceito está funcionando atualmente.

Para deixar mais claro, vamos ressaltar a diferença entre IoT e IIoT. IoT é o conceito mais abrangente que surge como a ideia de conectar qualquer dispositivo que gere informações e possa se conectar a um serviço de cloud em qualquer segmento.

Em contrapartida, a IIoT é a conexão de diferentes dispositivos relacionados à cadeia produtiva, conectando essas informações via cloud. Por exemplo, permitindo o processo produtivo conectar-se diretamente a um fornecedor de produto em tempo real na linha de produção.

 

Como a IoT na indústria 4.0 está revolucionando a indústria?

Agora que já entendemos os conceitos, vamos apresentar exemplos do que já está sendo feito atualmente. A IoT na indústria 4.0 já está presente em diferentes segmentos e atuando de diferentes maneiras.

 

1) Otimizando a manutenção na energia eólica

IoT na indústria 4.0

Schaeffler e a IBM vão utilizar turbinas eólicas para explorar como Machine Learning pode revelar insights valiosos sobre a performance de equipamentos em diferentes condições de operação.

Assim, sensores nos equipamentos informam as condições dos componentes da turbina em tempo real. Dessa forma, através da previsão do vento pela IBM, os operadores de turbina estão aptos para planejar com antecedência e repor peças durante períodos menos ventosos.

 

2) Aumentando a eficiência operacional de plantas industriais com gerenciamento de alarmes e eventos

IoT na industria 4.0

É muito comum indústrias possuírem milhares de eventos disparados pelo sistema de automação da planta. Sejam informações de alarmes, intervenções, mudança de estados, tudo fica registrado como eventos.

A quantidade é tão grande que se torna impossível realizar a análise desses dados sem ser por softwares especializados

Assim, visando amenizar esse problema, existe a prática de gerenciamento de alarmes e eventos. Um software de gerenciamento conecta-se ao sistema de controle e consegue extrair todas as informações dos milhares de dados gerados diariamente.

Essa grande quantidade de dados brutos são minerados e transformados em insights valiosos sobre as condições da planta industrial. Esse processo é denominado business intelligence.

Ainda assim, existe uma lacuna muito grande de sistemas que de fato conseguem minerar esses dados em tempo real gerando informações relevantes que facilitem o processo de tomada de decisão seja de maneira manual ou automática.

A maioria das indústrias sequer realiza a análise desses dados de maneira proativa, servindo apenas para registros para caso de necessidade de avaliação como, em análise de incidentes.

Por fim, o gerenciamento de alarmes e eventos facilita o trabalho do operador que consegue controlar a planta com maior precisão, aumentando a produtividade e diminuindo as perdas.

 

3) Veículos Conectados

IoT na industria 4.0

A IoT na indústria 4.0 também permite que a Schaeffler amplie a funcionalidade e a vida útil de componentes da indústria automotiva. Eles conseguiram encontrar um modelo de negócio híbrido a partir desta ideia.

Desse modo, análises e sistemas sensoriais em tempo real podem transformar dados brutos em insights valiosos que podem ser utilizados pelos fabricantes para aumentar a confiabilidade dos carros e oferecer um novo serviço de valor agregado aos clientes.

Dessa forma, eles conseguem ampliar a qualidade para além da porta da fábrica. Pois, fornece em tempo real aos clientes as condições dos seus respectivos carros.

 

Quais os benefícios da IoT na indústria 4.0?

Compreendido como funciona na prática, quais os benefícios que tudo isso oferece? A utilização de IoT e IIoT, trazem benefícios para as plantas industriais nos seguintes aspectos:

 

1- Eficiência operacional e maximização dos lucros

A eficiência operacional é o mais falado atualmente, e os primeiros adeptos estão focados nesses benefícios.

Ao introduzir automação, conectividade e técnicas de produção mais flexíveis, por exemplo, os fabricantes podem aumentar sua produtividade em até 30%. Esse dado também foi disponibilizado pelo estudo realizado pela Accenture.

Além disso, a escalabilidade, economia de tempo e de custos, auxilia na maximização dos lucros de organizações industriais.

Os aspectos que aumentam a eficiência operacional da planta são:

  • Redução de paradas na produção;
  • Melhoria do uso do ativo;
  • Redução no custo do ciclo do ativo;
  • Melhoria da produção;

 

2- Novos serviços e modelos de negócios

A IoT na indústria 4.0 permite que sejam criados novas fontes de receitas pela criação de novos serviços conectados. Os modelos de negócio híbridos, permitem que sejam aproveitados tantos os produtos quanto serviços digitais.

Sob o mesmo ponto de vista, o modelo de negócio híbrido são negócios que oferecem tanto produtos quanto um serviço relacionado à esse produto.

No exemplo anterior dos veículos conectados, a Schaeffler aproveitou os dados brutos obtidos para fornecer o serviço de condição dos carros em tempo real como fonte para manutenções preventivas.

A utilização de serviços digitais ainda melhora o relacionamento com o cliente. Pois, a entrega do produto possibilita diferentes pontos de contatos que geram informações valiosas para o cliente. É criada uma relação de confiança e lealdade.

 

3- Maior conhecimento para tomadas de decisões

A análise dos dados industriais permite que os executivos tenham maior quantidade de informação. Isso facilita para tomarem melhores decisões em virtude de ter uma visão mais precisa do desempenho da indústria.

Para completar, a rede da IIoT de dispositivos inteligentes permite que as organizações industriais conectem todas as suas pessoas, dados e processos do chão de fábrica até os executivos. Auxiliando ainda mais na produtividade dos líderes e nas tomadas de decisão.

É importante ressaltar que mais do que facilitar as tomadas de decisão, a indústria 4.0 quer ir além. Ela visa promover que boa parte dessas decisões sejam tomadas de maneira automática por técnicas inteligentes.

 

Conclusão

A melhor maneira de inovar em um setor industrial é quando você consegue identificar uma tendência de comportamento e se antecipa para aplicar uma nova ideia na sua indústria.

O mercado já está nos mostrando que o mundo caminha para a Quarta Revolução Industrial. Isso representa a introdução da tecnologia da informação nas indústrias.

Portanto, para as empresas que buscam sair na frente dentro do seu mercado e inovar, apostar na internet das coisas e IoT na indústria 4.0 pode ser um ótimo caminho.

Por fim, existe ainda um potencial escondido para um alto crescimento das indústrias, esse potencial é a utilização dos dados. Um bom uso desses dados permite aumentar a eficiência operacional, tomar melhores decisões e até criar novos modelos de negócio.

08 abr
Como aprender a programar pode mudar sua vida

Para Hannah Blair, enveredar-se pelo ramo da tecnologia foi complicado.

Ela frequentava uma escola para meninas que não oferecia o curso de informática e programação que queria, embora a escola para meninos oferecesse a disciplina.

“A escola de meninas tinha ciência da computação, enquanto a escola de meninos tinha um curso de informática de verdade, apesar de as duas estarem sob o mesmo teto, então mudei para a escola de meninos para fazer isso”, diz Hannah.

Sua determinação valeu a pena e ela se formou em Ciência da Computação pela Universidade de Surrey (Inglaterra) em 2018.

A jovem conseguiu uma vaga no programa de pós-graduação do banco alemão Deutsche Bank e desde então tem trabalhado com startups como desenvolvedora independente. Atualmente, atua como desenvolvedora sênior na plataforma de eventos virtuais Hopin.

Demorou 14 meses para Carl Mungazi conseguir seu primeiro emprego, pois ele enfrentou um problema comum a muitos candidatos.

“Um dos entrevistadores me disse que tinha uma proposta, mas queriam que eu ganhasse mais experiência.”

Em última análise, seja qual for o caminho que você tomar nesse setor, você deve demonstrar um claro interesse e paixão pela programação.

“É um processo muito desafiador que realmente aumentará sua resistência mental, mas se você for capaz de seguir em frente, isso mudará seriamente sua vida”, conclui Thornton.

Foi uma escolha de carreira inteligente, já que o desenvolvimento de software é um setor com muitas oportunidades.

Por exemplo, o Bureau of Labor Statistics (BLS), o Departamento de Estatísticas do Trabalho dos Estados Unidos, prevê uma taxa de crescimento de empregos de 22 % para esses desenvolvedores entre 2019 e 2029, em comparação com 4% para outras ocupações.

E os salários são bons. De acordo com o site de comparação de salários PayScale, o salário médio de um desenvolvedor é de cerca de US$ 80 mil (cerca de R$ 450 mil) por ano.

Mudança de carreira

Carl Mungazi

Carl Mungazi estudou jornalismo e trabalhou como repórter em Luton, na Inglaterra, por quatro anos, antes de se tornar desenvolvedor em 2016.

Sua vontade de enveredar-se pela profissão resultou de seu desejo de construir um agregador de notícias local, algo que já tinha visto em publicações nacionais.

“Basicamente, queria encontrar uma maneira de rastrear as notícias publicadas em Luton”, diz Mungazi.

Um amigo desenvolvedor o ajudou a construir o “back-end”, a tecnologia necessária para alcançar seu objetivo, e Mungazi aprendeu a usar Javascript, uma linguagem de programação para construir sites.

A escolha de qual linguagem de computador realmente aprender depende do que você deseja fazer.

Python é uma poderosa linguagem de propósito geral e muitas vezes é a primeira ensinada a estudantes universitários em cursos de informática.

É amplamente utilizada nos negócios — o YouTube, por exemplo, é amplamente escrito em Python.

Ruby é outra linguagem versátil, popular entre startups.

Os “bootcamps”

Independentemente da linguagem que um programador novato escolha, existem vastos recursos online para ajudar os autodidatas. Em seu caso, Mungazi diz que o site freecodecamp.org foi particularmente útil para ele.

Outra opção popular é frequentar um bootcamp (centro de treinamento), de grande ajuda para quem muda de carreira. Muitos deles surgiram nos últimos anos, oferecendo cursos intensivos destinados a ensinar os participantes as habilidades necessárias para conseguir o primeiro emprego nesse setor.

Brenden Thornton

Brenden Thornton escolheu esse caminho, inscrevendo-se em um curso oferecido pela Flatiron School, quando optou por deixar de ser cinegrafista da NBA (liga de basquete profissional) nos Estados Unidos.

“Uma grande vantagem de ir para um bootcamp é ter um currículo customizado para você. Não tive que fazer conjecturas ao decidir quais tecnologias aprender e como eu as aprenderia sozinho”, conta.

O suporte que vem com a participação nesses bootcamps também foi fundamental para sua decisão.

“Eles realmente dedicam tempo para formar uma equipe de suporte ao seu redor, não apenas por meio de oportunidades de emprego, mas também por meio de consultores de carreira que o ajudam a navegar no processo de procura de emprego.”

Uma desvantagem dos bootcamps é que eles podem ser demorados e proibitivamente caros para muitos. Muitos cursos ultrapassam US$ 10 mil (R$ 57 mil).

Uma bolsa parcial ajudou a aliviar parte dos encargos financeiros de Thornton, mas ele ainda tinha uma agenda cansativa.

Sua rotina de segunda a sexta consistia em acordar às 5 da manhã para trabalhar no Uber e no Lyft até as 9h. Então, estudava até as 16h e depois voltava a trabalhar nos apps de carona até as 21h.

Habilidades

Independentemente do caminho que você decidir seguir na programação, é essencial garantir que as chamadas soft skills (ou habilidades comportamentais) não sejam negligenciadas.

Curso da Flatiron School

Em cursos presenciais, habilidades além de programação e ciência da computação são aprendidas

“As habilidades que os empregadores procuram muitas vezes são mais do que técnicas”, de acordo com Barry Cranford, CEO da empresa de recrutamento RecWorks.

“A principal coisa que realmente faz a diferença é se você pode colocá-las em prática como parte de uma equipe.”

Ter um perfil público para destacar seu trabalho também pode ajudar na hora de se candidatar a empregos.

A plataforma online Github é particularmente popular entre os empregadores. “É como um portfólio de fotografias, você pode mergulhar nele e ver o que as pessoas fizeram”, diz Barry Cranford.

Encontrar um mentor que o apoia é outro elemento que pode lhe dar um impulso, diz ele, e pode ser uma “arma secreta” para sua carreira.

Redes profissionais

Tal como acontece com muitos setores, o networking (redes de contatos profissionais) também pode ajudar a construir esses primeiros contatos cruciais.

“Participar de qualquer reunião pode aumentar muito suas chances de conseguir um emprego”, diz Thornton.

No entanto, os desafios de conseguir o primeiro emprego não devem ser subestimados, especialmente para quem está mudando de carreira.

Hannah Blair

Hannah Blair teve que se transferir para uma escola só para meninos para estudar computadores

Demorou 14 meses para Carl Mungazi conseguir seu primeiro emprego, pois ele enfrentou um problema comum a muitos candidatos.

“Um dos entrevistadores me disse que tinha uma proposta, mas queriam que eu ganhasse mais experiência.”

Em última análise, seja qual for o caminho que você tomar nesse setor, você deve demonstrar um claro interesse e paixão pela programação.

“É um processo muito desafiador que realmente aumentará sua resistência mental, mas se você for capaz de seguir em frente, isso mudará seriamente sua vida”, conclui Thornton.

Publicado por BBC

01 abr
Facebook treinará Inteligência Artificial para entender vídeos postados

O Facebook anunciou que está empenhado em um novo projeto que treinará algoritmos de inteligência artificial (IA) para compreender áudios, textos e representações visuais em vídeos compartilhados por usuários no próprio Facebook e também no Instagram.

“Ao aprender com vídeos que abrangem quase todos os países e centenas de idiomas, este projeto não apenas nos ajudará a melhorar continuamente nossos principais sistemas de IA para recomendação de conteúdo e aplicação de políticas, mas permitirá experiências totalmente novas”, afirmou a empresa por meio de um comunicado em seu blog.

A iniciativa, chamada Learning from Videos (Aprendendo com Vídeos, em tradução livre), faz parte dos esforços do Facebook em desenvolver máquinas que “aprendem como os humanos” por meio de exemplos.

O objetivo da empresa é utilizar o aprendizado dos algoritmos de IA para criar novas formas de recomendação de conteúdo, criação automática de legenda nos vídeos e ferramentas de moderação. Segundo o Facebook, a tecnologia poderá ajudar na identificação de discursos de ódio compartilhados na rede.

No entanto, o aprendizado de máquina aplicado aos vídeos poderá ser ainda mais útil para a empresa no futuro. Com a tecnologia, o Facebook poderá utilizar a Inteligência Artificial para aprender ainda mais sobre seus usuários, analisando hobbies, interesses, preferências, entre diversas informações.

” alt=”” aria-hidden=”true” />
O aprendizado dos algoritmos de Inteligência Artificial do Facebook poderão ser utilizados no futuro em óculos de Realidade Aumentada. Créditos: Facebook

Óculos de realidade aumentada

Entre os objetivos do Facebook para este ano está o lançamento de um óculos inteligente com realidade aumentada (RA). Ainda não há muitas informações disponíveis sobre o gadget, mas é possível que eles incluam (agora ou em versões futuras) câmeras para fazer capturas da perspectiva do usuário.

Com os sistemas de Inteligência Artificial do Facebook treinados para compreender vídeo, as pessoas poderão pesquisar gravações anteriores. A empresa cita como exemplo um usuário fazendo uma busca com a frase “Mostre-me sempre que cantamos parabéns à vovó” e, como resultado, recendo vídeos relacionados às palavras chaves.

“À medida que isso [uso de óculos e outros wearables com RA] se torna a norma, as pessoas poderão relembrar momentos específicos de seu vasto banco de memórias digitais com a mesma facilidade com que os capturam. Será valioso construir sistemas de IA mais inteligentes que possam entender o que está acontecendo nos vídeos em um nível mais granular”, diz o comunicado.

 Publicado por Olhar Digital 

15 mar
Muito além da GameStop: saiba onde investir no mercado de jogos

O segmento que deve gerar US$ 180 bilhões em 2021, segundo dados da consultoria NewZoo, está se afastando cada vez mais das mídias físicas

A escalada de preços das ações da varejista GameStop em Wall Street pouco tem a ver com o crescimento do mercado de jogos. Na verdade, o segmento deve gerar US$ 180 bilhões em 2021, segundo dados da consultoria NewZoo, e está se afastando cada vez mais das mídias físicas.

Um relatório assinado por Breno Bonani, analista de investimentos da Avenue Securities, mostra que o setor, que já vale mais que as indústrias de cinema e música juntas, terá avenidas de crescimento cada vez mais “digitais”. Não só no desenvolvimento dos jogos em si, mas em toda a cadeia de distribuição.

Antes de listar estes caminhos e os papéis que podem se beneficiar com isso, no entanto, vale contextualizar o momento da indústria. 2020 foi um ano duplamente positivo para os games, a começar pela pandemia do novo coronavírus. Com mais pessoas ficando em casa, a procura por entretenimento decolou.

Coincidentemente, o aumento da demanda veio no ano de lançamento de uma nova geração de consoles. Sony e Microsoft, que batalham arduamente por cada ponto percentual deste mercado, disponibilizaram ao público em novembro o PlayStation 5 e o Xbox Series X, respectivamente.

Resultado: os dois produtos sumiram das prateleiras logo após o lançamento e até o momento a demanda supera a oferta. Até o Switch, da japonesa Nintendo, que foi lançado em 2017, se aproxima da marca de 70 milhões de consoles vendidos — recorde de venda.

Isso sem falar dos jogos em si e dos periféricos (teclado, fone, mouse). Nessa linha, confira três possíveis motores de crescimento do setor, que pode gerar US$ 200 bilhões em 2023, segundo a NewZoo. Confira.

Game Pass

Os gamers têm se afastado das mídias físicas. Tirando os saudosistas e colecionadores que preferem ter a caixinha de cada jogo, os games atuais costumam ser baixados no próprio console. Mais do que isso, o mercado parece estar caminhando, assim como no cinema e na música, para um esquema de assinatura.

“A digitalização reduz muito os custos das companhias com produção, com plástico”, diz Bonani, da Avenue. “Ao mesmo tempo, é mais fácil alcançar um número maior de pessoas através de plataformas online, por isso acreditamos que essas assinaturas devem crescer muito nos próximos anos.”

Neste segmento, o produto mais avançado é o Xbox Game Pass, da Microsoft, que já possui quase 20 milhões de usuários. Por R$ 30 mensais, a plataforma dá acesso a mais de 100 jogos no console ou no computador. Para ter acesso às duas opções, o assinante desembolsa R$ 45.

Já o Google criou o Stadia, enquanto a Apple criou o Arcade para brigar neste mesmo mercado. As próprias desenvolvedoras também estão entrando na parada, como a Epic que criou uma assinatura para jogadores ávidos de Fortnite.

Mobile

Outro ponto importantíssimo no mercado de games é o crescimento da fatia do mobile — que nada mais é do que jogos no celular. Os jovens aderiram aos games no smartphone seja por não terem acesso a um console ou computador de qualidade, seja pela qualidade dos produtos ali disponíveis.

A receita, nesse caso, vem de microtransações. É que os jogos para celular costumam ser gratuitos para baixar e jogar, mas boa parte dos títulos permite que o usuário compre itens cosméticos (para mudar a aparência do jogo) ou que auxiliam de alguma forma a performance do gamer.

Para se ter ideia da magnitude das cifras, a expectativa é que em 2021 os jogos para mobile ultrapassem US$ 120 bilhões em receita, o que representa mais de 60% do faturamento total do setor de games.

Bonani explica que as empresas podem avançar ainda mais conforme promovam um intercâmbio entre plataformas. O objetivo final é que o mesmo título possa ser jogado no computador, no celular e no console, com usuários dos três modais interagindo dentro dos servidores.

“O jogo Genshin Impact, lançado pela chinesa miHoYo em setembro de 2020, quebrou essa barreira”, afirma. “Ele já nasceu disponível em todas as plataformas, modelo que deve ser consagrado devido ao conforto que propicia. Já vemos outros grandes títulos, como PUBG e Call of Duty, aderindo ao mobile.”

Mercado asiático

O governo chinês passou a exigir uma licença formal, chamada de ISBN, para que as desenvolvedoras possam vender seus títulos nas lojas de aplicativos.

“A legislação matou os estúdios menores e obrigou os grandes a apontar para lançamentos globais, não somente jogos rápidos de qualidade inferior. Isso fez com que cerca de 20% dos 100 títulos de maior bilheteria dos EUA em 2020 fossem da China, número que deve continuar crescendo.”

Além de dificultar a vida dos estúdios pequenos, a ISBN atrasa a liberação de jogos no mercado chinês, que é o maior do mundo.

Empresas para investir

A lista elaborada pelo analista é focada em produtos disponíveis em Wall Street, mas também é possível investir em alguns dos papéis no Brasil, por meio de BDRs.

Estúdios americanos

Take-Two (TTWO; BDR T1TW34), Activision (ATVI; BDR ATVI34), EA (EA) e Zynga (ZNGA). Os três primeiros são os três maiores players do setor, desenvolvedores de GTA, Call of Duty e Fifa, respectivamente. Já o Zynga vem avançando no segmento mobile e tem no Farmville um dos seus jogos de maior sucesso.

Estúdios asiáticos

Gravity (GRVY), Sea (SE), Bilibili (BILI). As campeãs de valorização em 2020, avançando 417%, 380% e 408% no ano, respectivamente. Têm crescido por saber aproveitar o mercado mobilie e crescer em regiões populosas do mundo, como o Sudeste Asiático e a América Latina. O Free Fire, jogo mais jogado no Brasil, é da Sea.

Desenvolvedoras de placas gráficas

NVIDIA (NVDA; BDR NVDC34), AMD (AMD). O analista enxerga essas duas empresas com maior upside no setor de placas gráficas, vital para o mercado gamer. Para Bonani, a Intel tem tido problemas para acompanhar os avanços das concorrentes, apesar de ainda ser líder em market share.

Motor de jogos

Unity (U). Com IPO recente, a companhia é uma opção de investimento no nicho de motor de jogos, ou seja, empresas que criam plataformas para que outras companhias desenvolvam games dentro desse universo.

26 fev
Reconhecimento internacional! Artigo do professor Luciano será publicado no maior evento internacional de Engenharia de Software do mundo

E dá-lhe professor fazendo bonito internacionalmente! Luciano Aguiar teve seu artigo aprovado na maior conferência internacional de Engenharia de Software do mundo, a “43rd International Conference on Software Engineering”! A 43º Edição do evento será realizada em Madri e possui o Qualis A1, que é a maior nota dada a um congresso pelo sistema de avaliação brasileiro.

 

O prof. Luciano, do nosso curso de Engenharia de Software, está no doutorado. Por isso, submeter sua pesquisa nesses congressos é importante para receber avaliações e orientações de grandes pesquisadores internacionais.

 

O evento internacional possui várias trilhas, o artigo do prof. Luciano será publicado no Simpósio Doutoral, no qual os alunos de Doutorado submetem o seu Plano de Tese, o Plano de Tese é o Planejamento de como ocorrerá toda a pesquisa durante o doutorado.

 

“A proposal to systematize introducing DevOps into the software development process”

 

O artigo, “Uma proposta de Sistemização da Introdução do DevOps no processo de desenvolvimento de software”, aborda sobre como a indústria de desenvolvimento de software vem evoluindo com novos padrões de desenvolvimento e modelos de disponibilização de serviços.

 

Metodologias ágeis atingiram sua completude com DevOps, aumentando a qualidade do software e criando uma celeridade maior na entrega. Todavia, uma lacuna quanto à formalização de sua adoção e dúvidas de implantação tornaram-se relevantes.

 

A hipótese levantada no artigo é que a partir da sistematização da introdução do DevOps no processo de desenvolvimento de software e delimitação da função dos membros da equipe DevOps, torne o processo mais célere na sua implantação, reduzindo conflitos entre as equipes.

 

Como parte da investigação dessa hipótese, será aplicado o resultado da pesquisa em ambientes de desenvolvimento prático que será em uma Agência de Tecnologia do Estado do Governo Brasileiro e na Empresa também Brasileira Neurotech a fim de avaliar sua eficácia a partir de métricas adequadas para ambientes DevOps.

 

Veja mais em  https://conf.researchr.org/profile/icse-2021/lucianoaguiarmonteiro

 

 

 

 

 

 

 

 

 

19 fev
Os novos, e muito bem remunerados, cargos em Tecnologia em 2021

Ao longo de 2021 as empresas irão investir ainda mais em dois segmentos da área de Tecnologia: Dados e Desenvolvimento de Softwares.

A principal razão para isso é a procura das companhias por se tornarem cada vez mais “Data Driven”, ou seja, à partir de dados sobre o comportamento de seus clientes ou potenciais clientes, possam ser capazes de tomar as melhores decisões de negócio e, assim, obter uma vantagem competitiva frente aos seus competidores.

Funções que há poucos anos não existiam hoje são muito valorizadas. Por exemplo, a média mensal de um profissional Sênior da área de Dados está entre R$13.000 e R$17.000.

Como destaque, é possível citar o Engenheiro de Dados, um o profissional responsável pela organização e criação de pipelines de transformação de dados. E o Cientista de Dados o profissional que fica responsável pela análise, produção de insights e construção de Dashboards para a tomada de decisões.

Como a área de Dados ainda é uma área relativamente nova em grande parte das empresas é esperado que surjam novos cargos como, por exemplo, o Engenheiro de Machine Learning.

Este profissional possui um perfil bastante técnico de engenheiro de software mas com conhecimento especializado de Machine Learning.  É uma função que está na intersecção entre a engenharia de software e a ciência de dados e é responsável por desenvolver e aplicar modelos para o “aprendizado das máquinas” e assim automatizar diversos processos importantes. A robotização de processos e funções que se tornará cada vez mais comuns no nosso dia a dia.

Como efeito do fenômeno de “oferta X demanda” a busca por esse profissional vem aumentando e não há ainda uma grande oferta de profissionais com esta especialização. Por isso os salários tenderão a ficar bastante inflacionados.

A área de Desenvolvimento de Software vem crescendo há alguns anos e os salários vem acompanhando este movimento. A média mensal de um Desenvolvedor Sênior é entre R$12.000 e R$14.000 CLT, dependendo do nível de experiência.

Os cargos que continuarão em alta demanda são:

  • Desenvolvedor Back End Java,
  • C#
  • Python
  • Desenvolvedor Front End (Angular e React)
  • DevOps

‘’Mas há também a perspectiva de surgirem novas demandas por linguagens de programação mais voltadas a Dados (como R e Python) e também linguagens mais novas como Golang (linguagem de programação criada pelo Google). Assim, independentemente do cenário econômico geral, as novas aplicações, tecnologias e modelos de negócio continuarão a impulsionar o surgimento de novas funções altamente especializadas e muito bem remuneradas na área de Tecnologia.’’ Comenta e finaliza Tatiana Chebat, consultora Sênior de Tecnologia da Robert Walters.

Publicado por Penso Tecnologia 

29 dez
Deepfake de vozes brasileiras

Em meio ao medo relacionado às deepfakes, pesquisadores brasileiros reproduzem vozes em português e defendem que há um caminho positivo para essa tecnologia

“Minha terra tem palmeiras onde canta o sabiá”, diz o presidente Jair Bolsonaro. “As aves que aqui gorjeiam não gorjeiam como lá”, responde o ex-presidente Lula. O diálogo, que até onde Gama saiba jamais ocorreu, é passível de reprodução no site do Mr. Falante.

 Realizado pela UFG (Universidade Federal de Goiás) em parceria com a CyberLabs, empresa que trabalha com Inteligência Artificial (IA), o projeto é um dos pioneiros na produção e sintetização de voz no Brasil.
 Na página de divulgação do projeto é possível ouvir os ex-presidentes Lula e Dilma, assim como o atual presidente Jair Bolsonaro recitando poemas clássicos da literatura de língua portuguesa. A fidelidade às vozes das personalidades políticas assustam.
 Horas e mais horas de materiais são copiados, levando em conta as variações de fonemas dos idiomas, de pronúncias e de diversos fatores que afetam a fala
 De acordo com Frederico Oliveira, doutorando em ciência da computação pela Universidade Federal de Goiás (UFG) e um dos responsáveis pelo projeto Mr. Falante, 30 minutos de uma voz é tudo o que é necessário para os modelos de deepfakes mais avançados clonarem a fala de alguém.
 Montagens e edições não são coisas novas, mas as deepfake apresentam uma grande vantagem: a automação. O processo é chamado de deep learning, tecnologia que busca imitar o funcionamento de uma rede neural humana.
 O primeiro passo é a construção de banco de dados extenso com a voz que será clonada. “Quanto mais variado o banco de dados, melhor o resultado”, afirma Oliveira.
Em seguida, o modelo recebe o texto transcrito do áudio que será usado para treinamento do modelo. Esse texto é convertido em um áudio e o resultado inicial é quase sempre precário.
“Nós pegamos esse primeiro resultado e comparamos com o áudio original. Então apontamos as diferenças e pedimos para o modelo repetir o processo, corrigindo as imperfeições. O modelo erra menos a cada repetição, chegando a um nível de qualidade satisfatório após um bom tempo”, explica o cientista.
 Horas e mais horas de materiais são copiados pelo modelo, que leva em conta as variações de fonemas dos idiomas, de pronúncias e de diversos outros fatores que afetam a fala de alguém.

O projeto, que começou há mais de um ano, passará a ser comercializado nos próximos meses. Luísa Moncorvo, engenheira de IA e responsável pelos projetos de voz na CyberLabs, afirma que o intuito da empresa é levar a Inteligência Artifical para o dia a dia das pessoas.

 Além do Mr. Falante, a CyberLabs também trabalha com o Speech To Text — onde a voz é transcrita em texto — e com a biometria da voz. Tanto Oliveira quanto Moncorvo acreditam que estamos há poucos anos de ver todas essas tecnologias se popularizando ao redor do mundo.
Guilherme Falcão / Getty Images

Quem tá falando?

 George W. Bush recitando 50 Cent. Um dueto de “Barbie Girl” entre os pensadores Slavoj Žižek e Ayn Rand. Donald Trump interpretando falas de Star Wars. É possível conferir essas e diversas outras paródias em áudio no canal do YouTube “Vocal Synthesis“.
 Mesmo contando com mais de 70 mil inscritos, existe uma pessoa que não é lá muito fã do canal: o rapper Jay-Z. No começo do ano, o músico e sua agência e gravadora Roc Nation LLC notificaram o YouTube e o canal Vocal Synthesis, exigindo a remoção dos vídeos com deepfakes da voz de Jay-Z.
 A remoção levantou debates na internet, que discutiam como e se a lei de direitos autorais americana poderia ser utilizada nesse caso. O YouTube chegou a remover os vídeos de sua plataforma, mas voltou atrás informando que não havia informações o suficiente para o pedido ser acatado. Os vídeos ainda estão no ar.
 Há um conceito na legislação americana — o fair use –, que permite a utilização de produções protegidas por direitos autorais, desde que entrem na categoria de educação, crítica, sátira, paródia, comentário, jornalismo ou pesquisa. O criador do canal argumenta que a deepfake de Jay-Z se enquadra no conceito de fair use.
 É comum que, quando uma nova tecnologia surja, a legislação não esteja 100% pronta para lidar com seus desdobramentos. A medida que mais casos vão surgindo, fica claro a necessidade de leis específicas para o problema.
 No Brasil, a LGPD (Lei Geral de Proteção de Dados Pessoais) ainda carece de legislação específica que trate das deepfakes. Moncorvo afirma que a preocupação com o mau uso da tecnologia é central no desenvolvimento dos projetos e que a CyberLabs não fornece a clonagem de voz sem a permissão da pessoa que terá a voz clonada.
A escolha por figuras políticas recitando poesias também está relacionada a essa preocupação. “Nós usamos o trocadilho com a poesia para dar uma graça, mas é também uma maneira de deixar claro que aquele áudio não é real”, diz Moncorvo.
 “Tivemos essa preocupação ao longo da pesquisa, nós não disponibilizamos para o público os modelos que sintetizam as vozes dos presidentes”, afirma Oliveira.
Segundo o cientista, um modelo capaz de verificar a veracidade de uma voz está nos planos do grupo responsável pelo Mr. Falante, mas a pesquisa ainda precisa avançar bastante para que isso seja possível.
“Os modelos de língua inglesa já conseguem reconhecer e controlar com perfeição a prosódia, a variação emocional na entonação da voz. Queremos chegar nesse nível”, fala Oliveira.

A Inteligência Artificial cresce no mundo inteiro, mas os pesquisadores ouvidos por Gama enxergam poucas soluções oferecidas pelo mundo para o português brasileiro. “As pessoas não sabem que existe esse tipo de tecnologia sendo desenvolvida no Brasil. Queremos produzir tecnologia nacional e não simplesmente importar da China, da Europa ou dos EUA”, diz o cientista. “De brasileiros para brasileiros”, finaliza Moncorvo.

 Quem tem medo de deepfake?

 Em 2019, as artistas Francesca Panetta e Halsey Burgund decidiram criar uma linha do tempo alternativa da história dos EUA. Elas não estudaram física quântica ou projetaram uma máquina do tempo e sim apostaram na tecnologia que, em alguns anos, pode mudar a realidade como conhecemos: deepfake.
 O termo, cunhado em 2017, se refere a uma tecnologia que utiliza Inteligência Artificial para sintetizar e produzir vídeos e áudios falsos. Panetta e Burgund criaram “In Event of Moon Disaster”, uma obra de arte que questiona como novas tecnologias podem distorcer, redirecionar ou ofuscar a verdade.
 A possibilidade de fazer com que recriações da história e mentiras pareçam fatos fez com que o medo relacionado às deepfakes aumentasse
 O projeto simula o discurso que o ex-presidente dos EUA Richard Nixon daria caso a missão da Apollo 11 tivesse falhado. O vídeo de seis minutos utiliza o texto original escrito pela Casa Branca em caso de desastre e adiciona técnicas de deepfake, produzindo um vídeo assustadoramente realista do discurso de Nixon. Nessa versão, o mundo chorou o luto por Neil Armstrong e Buzz Aldrin.
 A possibilidade de fazer com que recriações da história e mentiras pareçam fatos fez com que o medo relacionado ao futuro das deepfakes ganhasse mais força com o passar dos anos.
 O relatório anual da Bitdefender, empresa de segurança na Internet, colocou a tecnologia como um dos principais perigos virtuais para o ano de 2020. Já o Facebook instaurou no começo do ano uma política de tolerância zero com deepfakes em sua plataforma.
 É que com essa tecnologia, verdade e democracia correm risco. Afinal, se um vídeo ou áudio pode ser facilmente editado e parecer real, o que impede o público de acreditar, ou desacreditar, no que bem entender?
 Em entrevista à Folha de S. Paulo, Sam Gregory, diretor da organização Witness, diz que não devemos entrar em pânico e sim nos preparar. “Temos uma janela de oportunidade, antes que as deepfakes se tornem ainda mais difundidas, para nos prepararmos melhor para elas do que fizemos nas ondas anteriores de desinformação.”
 Hany Farid, especialista em análise forense de imagens digitais e professor na Universidade da Califórnia entende que são necessárias ações em conjunto, de diversos atores, para conter o efeito negativo que as deepfakes podem ter.
 Para a Folha de S. Paulo, o cientista disse que acredita que plataformas digitais como o Facebook e o YouTube devem assumir uma responsabilidade maior no combate à informações falsas. Além disso, é necessário uma melhor educação virtual para os consumidores, aliado a uma regulação governamental mais forte.

As preocupações são válidas e fundamentais para uma sociedade mais segura, mas existem aqueles que buscam encontrar na tecnologia soluções positivas para problemas e questões atuais.

Deepfake do bem?

Se você ficou impressionado com o poder destrutivo das redes sociais em “O Dilema das Redes” (2020) ou é muito viciado na série “Black Mirror”, é provável que o tema deepfake te deixe levemente preocupado. Afinal, a tecnologia se popularizou ao produzir vídeos pornográficos falsos de famosas, onde o rosto de celebridades eram editados em corpos de outras atrizes.

Entretanto, existem aplicações positivas para as deepfakes. O mundo do entretenimento promete ser revolucionado com a tecnologia, capaz de rejuvenescer atores, sintetizar novas vozes e até mesmo reviver astros que já se foram. Em uma visita de museu, será possível conversar — e tirar selfies — com versões digitalizadas de pintores famosos ou até mesmo ver uma versão em movimento de Mona Lisa.
 O mundo do entretenimento promete ser revolucionado com a tecnologia, capaz de rejuvenescer atores, sintetizar novas vozes e até reviver astros que já se foram
 Regravações de cenas para filmes que não deram certo na primeira ou de áudios para podcasts? Coisas do passado. Propagandas? Em uma campanha contra a malária, David Beckham passou uma importante mensagem em nove línguas — mesmo que o ex-jogador inglês não fale todas elas.
Longe de Hollywood, a tecnologia também pode auxiliar em diversas questões do dia a dia. Na área da acessibilidade, será possível sintetizar vozes mais humanas para leitores de texto.
 Projetos como o Seeing AI da Microsoft e o Lookout do Google, que reconhecem informações importantes no ambiente e narram com uma voz sintética as descobertas para deficientes visuais, são exemplos positivos do que pode ser feito com a tecnologia.
 Interações com atendentes virtuais também alcançarão um novo patamar de realidade, seja com a Siri, com a Alexa ou com operadores de telemarketing computadorizadas. Do sotaque ao timbre, as vozes poderão ser personalizadas para que melhor atendam as expectativas dos clientes.
Além do Text To Speech — onde o texto é transformado em voz –, a tecnologia de deep learning voltada para o áudio possibilitará diversas novidades. Inimigo mortal de toda uma geração, os longos e intermináveis áudios de WhatsApp podem estar com os dias contados.

Em pouco tempo, será possível transformar a inconveniente fala em um texto. Ou vice-versa, caso você precise. Senhas e números de protocolos em ligações bancárias? Nunca mais. A biometria de voz poderá resolver tudo com algumas palavras.

 Publicado por Revista Gama

18 dez
Governo regulamenta uso do blockchain

O governo federal regulamentou o uso de blockchain no Brasil para o Comércio Exterior, de acordo com o Decreto 10.550, assinado pelo presidente Jair Bolsonaro e o Ministro da Economia, Paulo Guedes, em 24/11.

A partir de agora, a tecnologia pode ser usada na administração, fiscalização, controle e tributação das atividades aduaneiras. A nova lei alterou o Decreto 6.759/2009 que regulamenta todas as operações no comércio exterior. No que se refere à tecnologia blockchain, as mudanças aconteceram no parágrafo 562.

“A Secretaria Especial da Receita Federal do Brasil do Ministério da Economia poderá dispor:

— em relação à fatura comercial sobre formas de assinatura mecânica ou eletrônica, permitida a confirmação de autoria e autenticidade do documento, inclusive na hipótese de utilização de blockchain;

— e dispensa de assinatura ou de elementos referidos no art. 557 — que trata sobre todas as informações necessárias do importador, com nome e endereço;

— e a inclusão de novos elementos, a serem definidos em legislação específica”.

Blockchain no Governo

O interesse na tecnologia Blockchain no Brasil como uma ferramenta de gestão pode ser medido pelas ações debate promovidas por diferentes esferas de governo. O Serpro (Serviço Federal de Processamento de Dados) desenvolveu uma plataforma de blockchain para a Receita Federal do Brasil (RFB), a ‘bCONNECT’.

O governo federal possui ainda várias frentes que estudam e discutem a tecnologia blockchain. O Programa Centelha, por exemplo, é um projeto que financia novas soluções em Internet das Coisas (IoT), entre outros. A própria Dataprev vai fornecer blockchain como serviço para o Ministério Público Federal.

 

Publicado por: Convergência Digital

28 out
QTrends Engenharia de Dados – Data mesh, streaming e dados como produtos

Depois de duas edições com um foco na discussão em torno do tema monólitos e microsserviços (“A ascensão e queda dos microservices” e “A vez dos monólitos modulares”), a QTrends de agosto tem como tema os pipelines de streaming de dados, sistemas ETL modernos e data mesh (também chamado de malha de dados). Em nosso último relatório de tendências de Arquitetura e Design, publicado em abril de 2020, data mesh foi classificada como uma tecnologia inovadora, enquanto arquiteturas baseadas em eventos e streaming foram classificadas como tecnologias com maior adoção (early majority).

Em função da combinação do potencial de disrupção de como os dados são tratados e gerenciados, por exemplo com times de produtos tendo a posse e expondo dados por mecanismos self-service, e da evolução de abordagens das preparações de dados (data-wrangling) baseadas em stream, nós acreditamos que um real entendimento de padrões, anti-padrões e tecnologias emergentes relacionadas a esses assuntos são de extrema relevância para profissionais que trabalham com arquitetura de sistemas.

Um panorama

Do pooling ao streaming: a evolução da LaunchDarkly

Dawn Parzych, Developer Advocate na LauchDarkly, descreveu em um artigo recém publicado como a empresa evoluiu o sistema de gestão de feature flags utilizado por clientes de um arquitetura baseada em pooling para uma nova arquitetura baseada em streaming.

Para quem utiliza essa solução, os benefícios incluem um aumento na velocidade das mudanças de configurações e também um consumo menor na bateria de dispositivos móveis. Segundo a publicação, “com a nova abordagem, clientes conseguem ver rapidamente as atualizações quando uma feature flag é alterada e com um consumo de banda significativamente menor” e “conseguimos prolongar o tempo de uso das baterias de dispositivos móveis, uma que vez que não é mais necessário o consumo de tanta energia para a realização de poolings.”.

Tudo que você sempre quis saber sobre Apache Kafka mas não teve coragem de perguntar!

Em uma apresentação realizada na Big Data Conference Vilnius, Ricardo Ferreira explicou o que é o Apache Kafka e como essa solução se encaixa nos conceitos de sistemas distribuídos e processamento de stream. Ricardo também apresentou alguns casos de uso e padrões de design relacionados ao uso do Kafka.

Um dos pontos principais da palestra foi o fato de que o Apache Kafka pode ser encarado como uma plataforma de streaming distribuído. Ricardo disse que profissionais dificilmente entenderão o Kafka se pensarem na ferramenta como “só uma mensageria” e que “mensageria não tem persistência e, assim como bando de dados, possuem limites de escalabilidade”.

Você pode encontrar outras duas apresentações sobre Apache Kafka realizadas pelo Ricardo Ferreira, dessa vez em português, aqui no InfoQ Brasil.

Registro de schemas do Amazon EventBridge disponível na AWS

Recentemente a Amazon anunciou a disponibilidade da funcionalidade de registro de schemas no serviço Amazon EventBridge. A proposta do registro de schemas do Amazon EventBridge é que de profissionais do desenvolvimento possam armazenar a estrutura – ou o schema – de eventos em um ponto central compartilhado e mapear essas estruturas em código Java, Python e Typescript. Com isso, fica possível a utilização desses eventos como objetos no código-fonte.

O anúncio dessa nova funcionalidade coloca o Amazon EventBridge como um grande competidor frente a outras soluções oferecidas por outras plataformas na nuvem. A Microsoft oferece o EventGrid que já está disponível desde o início de 2018 e já recebeu diversas atualizações, incluindo a construção de filtros avançadosregras para retentativas e suporte para o CloudEvents. Por outro lado, o serviço da Microsoft não contém a funcionalidade de registro de schemas.

Indo além, o mesmo é válido para o EveryBridge da Triggermesh. Esse integrador de eventos (event bus) é capaz de consumir eventos de diferentes fontes, fazendo com que profissionais do desenvolvimento possam utilizá-lo para a criação de funções servless que poderão ser executadas na maioria das plataformas na nuvem, bem como em soluções on-premise.

Melhorando o Apache Spark com GPUs e a biblioteca RAPIDS

Durante a conferência Spark AI Summit Europe em 2019, os desenvolvedores da NVIDIA Thomas Graves e Miguel Martinez apresentaram a palestra “Acelerando o Apache Spark em diversas ordens de magnitude com GPUs e a biblioteca RAPIDS”. Recentemente o InfoQ conversou com Jim Scott, Head of Developers Relations na NVIDIA, para entender melhor sobre como acelerar o Apache Spark com GPUs e a biblioteca RAPIDS.

A RAPIDS é um conjunto de bibliotecas e APIs open-source para a execução em GPUs de pipelines de data science e analytics de ponta a ponta, possibilitando um significativo aumento na velocidade de processamento, especialmente em grandes conjuntos de dados. Construída em cima da NVIDIA CUDA, a RAPIDS disponibiliza o paralelismo e todo o poder da velocidade da memória da GPU através de uma interface Python amigável e uma API que integra uma variedade de algoritmos de machine learning para a aceleração de pipelines de ponta a ponta.

Estudo de caso

Data Mesh, domínios orientados a dados e a construção de plataforma de dados por Zhamak Dehghani

Em um popular podcast produzido pelo InfoQ, o conceito de “data mesh” foi apresentado por Zhamak Dehghani, que é Principal Consultant e Porfolio Director na ThoughtWorks. A discussão incluiu as motivações para se tornar uma empresa guiada por dados (data-driven), os desafios para se adaptar plataformas legadas e rotinas ETL, e como fazer o design e implementar a próxima geração de plataforma de dados utilizando ideias do DDD e product thinking, além de alguns princípios modernos de plataformas, como processos e soluções self-service.

O começo da conversa foi marcado por Zhamak dizendo que se tornar uma empresa data-driven ainda é um dos principais objetivos estratégicos de muitas empresas. Ser capaz de rodar experimentos rapidamente e analisar os dados resultados desses experimentos de forma eficiente pode trazer uma grande vantagem competitiva para diversos negócios.

Há uma série de “modelos falhos de arquitetura” dentro das plataformas corporativas de dados existentes. Elas são centralizadas e construídas com monólitos. A construção dos pipelines de dados possui, geralmente, um grande acoplamento, o que significa que uma eventual alteração em um dado implicará em uma cascata de modificações ao longo de todo o pipeline. Além disso, a posse, o domínio dessas plataformas de dados é cheia de silos e hiper especializada.

A próxima geração de plataforma corporativas de dados necessitam de uma mudança de paradigma em direção à ubiquidade dos dados com um data mesh distribuído. Zhamak acredita que, ao invés dos dados navegarem de um domínio para um data lake ou uma plataforma central, cada domínio precisa armazenar e servir seus dados de uma forma facilmente consumível, em um estilo self-service.

Além disso, times responsáveis pelos dados de domínios precisam aplicar o product thinking aos conjuntos de dados providos por eles, também precisam considerar esses dados como seus produtos e quem consome essas informações, tais como profissionais da ciência de dados, do aprendizado de máquina e da engenharia de dados, como clientes.

O podcast completo, bem como sua transcrição, pode ser encontrado no InfoQ.

E por aqui?

Fazer uma comparação direta com o estágio de adoção de determinadas tecnologias e práticas no Brasil com regiões como a América do Norte e a Europa não é algo tão simples de ser feito. Nosso mercado, um tanto quanto conservador, faz com que assuntos como data mesh ainda nem ecoem por aqui, ao passo que streaming de dados já é algo que conseguimos escutar no contexto de algumas grandes empresas.

Isso, porém, não significa que não tenham coisas muito interessantes acontecendo por esses lados do planeta. Se você der uma olhada no tópico de Streaming dentro do InfoQ Brasil verá diversas palestras com conteúdos e cases bastante relevantes, como a apresentação feita pelo Eiti Kimura da Wavy onde ele apresenta os desafios de se processar um volume de mais de 100 milhões de transações por dia.

 

13 out
Evento online tem maratona de programação e prêmio de até R$ 5 mil

Hackathon OLX ocorre entre dias 16 e 25 de outubro; participantes concorrem a um Summer Job na OLX e a prêmios de até R$ 5 mil

O Hackathon OLX é uma maratona digital para jovens universitários que vai acontecer virtualmente entre dos dias 16 e 25 de outubro. A iniciativa é fruto de uma parceria entre a OLX e o Hacktudo, festival de cultura digital, e se destina a jovens interessados em criar projetos a cerca do tema “Economia Colaborativa em Tempos de Pandemia”. As inscrições são gratuitas e devem ser realizadas até a próxima segunda-feira (28) pelo Sympla.

Podem participar do hackathon alunos universitários de cursos superiores de graduação em qualquer área do conhecimento e estudantes de cursos técnicos. Vale ressaltar que as inscrições só serão válidas para alunos com matrícula vigente. O evento ainda vai contar com prêmios em dinheiro para os três grupos finalistas, além de oferecer seminários online e sessões de mentoria para os participantes, que também vão concorrer a um Summer Job na OLX.

Abertura da Hackathon do festival Hacktudo 2019 — Foto: Divulgação/Hacktudo

Abertura da Hackathon do festival Hacktudo 2019 — Foto: Divulgação/Hacktudo

Além disso, a participação no Hackathon OLX está limitada aos 30 primeiros times que se cadastrarem na maratona. As inscrições devem ser realizadas por grupos de três a quatro estudantes, e um dos integrantes da equipe deve ficar responsável pelo envio dos comprovantes de matrícula e documentos necessários de cada membro do grupo. Valem boletos bancários ou faturas de cartão de crédito que constem os débitos de pagamento do curso e carteirinhas de identificação ou declaração da instituição.

O concurso seguirá um cronograma definido. Durante a abertura do evento, no dia 16 de outubro, será anunciado um desafio para os participantes, que terão 36 horas para idealizar e desenvolver uma solução inovadora e criativa a partir de um projeto original e aplicável. Após esse período, as dez equipes que mais se destacarem seguirão para a próxima etapa, um pitching no dia 24 de outubro. Então, no dia 25, serão revelados os três melhores projetos. O hackathon também vai contar com sessões de mentoria e outras dinâmicas virtuais e o time vencedor ainda leva para casa R$ 5 mil.

Para inscrever seu time no Hackathon OLX, basta acessar o site

O que é o Hacktudo?

O Hackathon OLX é apenas uma das atividades previstas para o Hacktudo, festival de cultura digital que acontece online e gratuitamente entre os dias 16 e 25 de outubro. O evento ainda vai apresentar conferências com profissionais de grandes empresas de tecnologia e uma exposição virtual do artista Jota Azevedo sobre lixo eletrônico. A programação também inclui atividades exclusivas para as mulheres e para o público infanto-juvenil. Para saber todos os detalhes e se inscrever nos laboratórios, basta acessar: www.hacktudo.com.br

28 set
Banco Nacional de Empregos: Vagas em TI disparam 63% na pandemia

O desemprego segue em alta no Brasil, com 13 milhões de desocupados, ou 13,6% da população ativa do país. Mas não para todos. Para os profissionais ligados a áreas de tecnologia da informação, o ritmo é de aquecimento no mercado de trabalho, com alta de 63% segundo levantamento do Banco Nacional de Empregos, um portal de currículos com 135 mil empresas cadastradas.

Segundo esse levantamento, enquanto no ano passado, de janeiro a setembro, foram abertas 8.049 vagas, no mesmo período em 2020 a procura chegou a 12.682 postos – daí a alta de 63%.

Também de acordo com essa pesquisa, os estados de São Paulo (5.793), Santa Catariana (1.378), Paraná (1.105), Rio Grande do Sul (1.020) e Rio de Janeiro (858) são os que oferecem mais vagas no setor. Comparado com o ano passado, o aumento das vagas de TI em São Paulo foi de 138%.

“Com a maior opção por serviços delivery, internet e e-commerce, áreas diretamente ligadas à tecnologia tornaram-se necessárias dentro das empresas para que o atendimento continuasse acontecendo, o que consequentemente responde esse aumento de vagas na área de tecnologia”, aponta a pesquisa do BNE.

Publicado por Convergência Digital 

Tem uma pergunta?
Nós estamos aqui para ajudar. Envie-nos um e-mail ou ligue-nos para (86) 3133-7070
Entrar em contato!
© 2017 iCEV Instituto de Ensino Superior