fbpx

13 out
The $150 Million Machine Keeping Moore’s Law Alive

ASML’s next-generation extreme ultraviolet lithography machines achieve previously unattainable levels of precision, which means chips can keep shrinking for years to come.

Each machine is roughly the size of a bus. Shipping their components requires 40 freight containers, three cargo planes, and 20 trucks.PHOTOGRAPH: ASML

INSIDE A LARGE clean room in rural Connecticut, engineers have begun constructing a critical component for a machine that promises to keep the tech industry as we know it on track for at least another decade.

The machine is being built by ASML, a Dutch company that has cornered the market for etching the tiniest nanoscopic features into microchips with light.

ASML introduced the first extreme ultraviolet (EUV) lithography machines for mass production in 2017, after decades spent mastering the technique. The machines perform a crucial role in the chipmaking ecosystem, and they have been used in the manufacture of the latest, most advanced chips, including those in new iPhones as well as computers used for artificial intelligence. The company’s next EUV system, a part of which is being built in Wilton, Connecticut, will use a new trick to minimize the wavelength of light it uses—shrinking the size of features on the resulting chips and boosting their performance—more than ever before.

The current generation of EUV machines are already, to put it bluntly, kind of bonkers. Each one is roughly the size of a bus and costs $150 million. It contains 100,000 parts and 2 kilometers of cabling. Shipping the components requires 40 freight containers, three cargo planes, and 20 trucks. Only a few companies can afford the machines, and most of them go to the world’s big three leading-edge chipmakers: the world’s leading foundry, Taiwan-based TSMC, as well as Samsung, in South Korea, and Intel.

“It is really an incredible machine,” says Jesús del Alamo, a professor at MIT who works on novel transistor architectures. “It’s an absolutely revolutionary product, a breakthrough that is going to give a new lease of life to the industry for years.”

In Connecticut, a giant hunk of aluminum has been carved into a frame that will eventually hold a mask, or “reticle,” that moves with nanometer precision while reflecting a beam of extreme ultraviolet light. The light pinballs off several mirrors shaped and polished with astonishing precision to etch features just a few dozen atoms in size onto future computer chips.

The finished component will be shipped to Veldhoven in the Netherlands by the end of 2021, and then added to the first prototype next-generation EUV machine by early 2022. The first chips made using the new systems may be minted by Intel, which has said it will get the first of them, expected by 2023. With smaller features than ever, and tens of billions of components each, the chips that the machine produces in coming years should be the fastest and most efficient in history.

ASML’s latest EUV machine promises to keep alive an idea that has come to symbolize the march of progress—not just in chipmaking, but in the tech industry and the economy at large.

EUV system
Only a handful of companies can afford ASML’s giant machine, and China has been blocked from purchasing them altogether. PHOTOGRAPH: ASML
FEATURED VIDEO

Computer Scientist Explains Machine Learning in 5 Levels of Difficulty

 

In 1965, Gordon Moore, an electronics engineer and one of the founders of Intel, wrote an article for the 35th anniversary issue of Electronics, a trade magazine, that included an observation that has since taken on a life of its own. In the article, Moore noted that the number of components on a silicon chip had roughly doubled each year until then, and he predicted the trend would continue.

A decade later, Moore revised his estimate to two years rather than one. The march of Moore’s law has come into question in recent years, although new manufacturing breakthroughs and chip design innovations have kept it roughly on track.

EUV uses some extraordinary engineering to shrink the wavelength of light used to make chips, and it should help continue that streak. The technology will be crucial for making more advanced smartphones and cloud computers, and also for key areas of emerging technology such as artificial intelligence, biotechnology, and robotics. “The death of Moore’s law has been greatly exaggerated,” del Alamos says. “I think it’s going to go on for quite some time.”

Amid the recent chip shortage, triggered by the pandemic’s economic shock waves, ASML’s products have become central to a geopolitical struggle between the US and China, with Washington making it a high priority to block China’s access to the machines. The US government has successfully pressured the Dutch not to grant the export licenses needed to send the machines to China, and ASML says it has shipped none to the country.

“You can’t make leading-edge chips without ASML’s machines,” says Will Hunt, a research analyst at Georgetown University studying the geopolitics of chipmaking. “A lot of it comes down to years and years of tinkering with things and experimenting, and it’s very difficult to get access to that.”

Each component that goes into an EUV machine is “astonishingly sophisticated and extraordinarily complex,” he says.

Making microchips already requires some of the most advanced engineering the world has ever seen. A chip starts out life as a cylindrical chunk of crystalline silicon that is sliced into thin wafers, which are then coated with layers of light-sensitive material and repeatedly exposed to patterned light. The parts of silicon not touched by the light are then chemically etched away to reveal the intricate details of a chip. Each wafer is then chopped up to make lots of individual chips.

Shrinking the components on a chip remains the surest way to squeeze more computational power out of a piece of silicon because electrons pass more efficiently through smaller electronic components, and packing more components into a chip increases its capacity to compute.

Lots of innovations have kept Moore’s law going, including novel chip and component designs. This May, for instance, IBM showed off a new kind of transistor, sandwiched like a ribbon inside silicon, that should allow more components to be packed into a chip without shrinking the resolution of the lithography.

But reducing the wavelength of light used in chip manufacturing has helped drive miniaturization and progress from the 1960s onwards, and it is crucial to the next advance. Machines that use visible light were replaced by those that use near-ultraviolet, which in turn gave way to systems that employ deep-ultraviolet in order to etch ever smaller features into chips.

A consortium of companies including Intel, Motorola, and AMD began studying EUV as the next step in lithography in the 1990s. ASML joined in 1999, and as a leading maker of lithography technology, sought to develop the first EUV machines. Extreme ultraviolet lithography, or EUV for short, allows a much shorter wavelength of light (13.5 nanometers) to be used, compared with deep ultraviolet, the previous lithographic method (193 nanometers).

But it has taken decades to iron out the engineering challenges. Generating EUV light is itself a big problem. ASML’s method involves directing high-power lasers at droplets of tin 50,000 times per second to generate high-intensity light. Lenses absorb EUV frequencies, so the system uses incredibly precise mirrors coated with special materials instead. Inside ASML’s machine, EUV light bounces off several mirrors before passing through the reticle, which moves with nanoscale precision to align the layers on the silicon.

“To tell you the truth, nobody actually wants to use EUV,” says David Kanter, a chip analyst with Real World Technologies. “It’s a mere 20 years late and 10X over budget. But if you want to build very dense structures, it’s the only tool you’ve got.”

12 out
Como o Data Mining pode ajudar no seu negócio?

Se a sua empresa gera um grande volume de dados e quer usá-los a favor do seu negócio, é bem importante saber o que é Data Mining.

Em tradução literal, Data Mining significa mineração de dados. Consiste em usar a tecnologia para realizar a análise de grandes quantidades de dados, a fim de identificar padrões consistentes e extrair insights para aprimoramento dos processos.

O Data Mining pode ser utilizado em diferentes segmentos e vertentes dentro de um mesmo negócio, por exemplo, vendas, marketing, finanças etc.

Ao fazer a mineração de dados e transformá-los em informações, é possível tomar decisões mais assertivas e ter insights que podem ajudar no crescimento da empresa.

O que é Data Mining?

Data Mining, em português, mineração de dados, é um processo pelo qual se realiza a análise de grandes quantidades de dados. 

O Data Mining permite filtrar do Big Data informações que realmente serão úteis para o propósito que pretende alcançar.

Em outras palavras, a mineração de dados identifica padrões, que literalmente são “minerados do mar de dados” gerados por uma empresa.

As informações extraídas do Data Mining são importantes aliadas para tomada de decisões em um negócio. Com essa base, é possível identificar problemas e também diversas oportunidades de negócios e de crescimento.

Para que serve o Data Mining?

Mas saber o que é Data Mining consiste também em entender para que esse processo serve.

O Data Mining serve para transformar dados brutos em informações de valor para uma empresa. 

A sua alta capacidade analítica, que é determinada por algoritmos de Inteligência Artificial e de Machine Learning, faz conexões e correlações entre os dados, identifica padrões e anomalias.

Uma vez que os dados são transformados em informações, essas podem servir como base para o planejamento estratégico do seu negócio.

O Data Mining serve, por exemplo, para identificar padrões de comportamento dos consumidores.

Com essa resposta nas mãos, a sua empresa pode criar uma série de ações para aprimorar o relacionamento com os clientes, tais como, otimizar o atendimento, melhorar as campanhas de marketing, entre outras.

Quais as etapas do Data Mining?

A explicação do que é Data Mining só fica completa quando se entende as etapas que compõem esse processo, que são:

  1. Definição do objetivo
  2. Seleção dos dados
  3. Limpeza dos dados
  4. Aplicação das técnicas de mineração
  5. Avaliação dos resultados obtidos
  6. Utilização das informações

1. Definição do objetivo

A primeira etapa do Data Mining consiste em definir qual o objetivo do processo. Ou seja, é alinhar essa busca por informações aos objetivos estratégicos da empresa.

Para encontrar uma boa definição você pode, por exemplo, se basear em metas e indicadores que precisam ser melhorados.

2. Seleção dos dados

Com base no que foi determinado da etapa anterior, agora é preciso definir de onde os dados serão extraídos, ou seja, de qual fonte eles serão retirados.

É possível, por exemplo, fazer uma análise do CRM utilizado na sua empresa e extrair os dados gerados para usar como base nas suas tomadas de decisão.

3. Limpeza dos dados

Uma vez definida a origem, que deve estar alinhada com o objetivo, chega o momento de fazer a limpeza dos dados.

De uma maneira simples, consiste em selecionar apenas os dados condizentes com o propósito em questão, eliminando aqueles que não têm potencial para trazer os resultados pretendidos.

Lembre-se que isso tudo será feito com a ajuda da tecnologia. Considerando que o Data Mining visa analisar grandes quantidades de dados, isso não é possível de ser feito de outra forma, ou seja, apenas por interação humana.

4. Aplicação das técnicas de mineração

Esta fase consiste na aplicação de técnicas de mineração, que são metodologias baseadas em algoritmos que vão fazer a identificação de padrões, correlações e outras análises dos dados.

As técnicas de mineração são variadas. Entre as que podem ser aplicadas estão a regra de associação, redes neurais artificiais, árvores de decisão etc.

5. Avaliação dos resultados obtidos

Agora os dados foram transformados em informações. Com isso, é chegado o momento de fazer uma boa avaliação do que foi extraído.

Analisando as informações geradas pela mineração de dados é possível, por exemplo, traçar planos estratégicos para aumentar o nível de satisfação dos clientes e, com isso, contribuir para o crescimento da empresa.

6. Utilização das informações

Feita a avaliação do que foi extraído no processo de Data Mining, a última etapa consiste em usar os insights gerados, transformá-los em ações e, dessa forma, solucionar problemas e/ou aprimorar processos.

Sobre isso, é importante sempre manter o foco no objetivo principal que foi definido na primeira etapa, pois a mineração de dados realizada foi baseada nessa definição.

Quais técnicas podem ser utilizadas no Data Mining?

Na quarta etapa deste artigo sobre o que é Data Mining, mencionamos a aplicação de técnicas de mineração.

A fim de deixar esse conceito mais claro, vamos explanar um pouco algumas das técnicas que costumam ser mais utilizadas:

  • Regra de associação: faz a associação entre dois ou mais itens e contribui para encontrar padrões e tendências;
  • Redes neurais artificiais: técnica usada para identificar as relações entre os dados;
  • Árvores de decisão: gera inúmeras possibilidades de escolha para uma mesma questão a ser resolvida.

Como o Data Mining pode ajudar uma empresa?

Agora que você sabe o que é Data Mining e as etapas que compõem esse processo, é bem importante conhecer em quais pontos a mineração de dados pode ajudar a sua empresa.

O Data Mining pode ser visto como um importante diferencial competitivo. Entre as diversas possibilidades, esse processo ajuda a:

  • melhorar os serviços prestados tendo como base o comportamento dos clientes;
  • ter bases mais concretas para tomada de decisões;
  • tirar proveito maior dos dados que são gerados pela sua empresa;
  • identificar novas oportunidades de negócios;
  • fazer previsões de mercado.

Em quais áreas a mineração de dados pode ser utilizada? Exemplos de Data Mining

O Data Mining pode ser utilizado em diferentes segmentos, ou departamentos dentro de uma mesma empresa.

Quanto aos ramos de atuação, pode ser utilizado, por exemplo, na área de segurança pública, saúde, pesquisas científicas, telecomunicações, finanças, agricultura etc.

Na sua empresa, você pode utilizar a mineração de dados para melhorar os processos de vendas, marketing, captação de clientes, telemarketing, atendimento ao cliente etc.

 

Blog da Zendesk

27 set
Anatel marca leilão do 5G para 4 de novembro

Nesta última sexta-feira (24), o conselho diretor da Agência Nacional de Telecomunicações (Anatel) aprovou as regras gerais para a implementação do 5G no Brasil e marcou a data do leilão da tecnologia para o dia 4 de novembro.

Na reunião extraordinária foram discutidos os últimos ajustes para a licitação das radiofrequências 700 MHz, 2,3 GHz, 3,5 GHz e 26 GHz. Este será o maior leilão já realizado pela instituição.

Anatel marca leilão do 5G para 4 de novembro.

A decisão prevê que as operadoras envolvidas comecem a oferecer o sinal de 5G até 31 de julho de 2022. Os prazos estipulados são os seguintes:

  • 5G disponível nas capitais brasileiras até 31 de julho de 2022;
  • Em cidades com mais de 500 mil habitantes até 31 de julho de 2025;
  • Em municípios com mais de 200 mil habitantes até 31 de julho de 2026;
  • Cidades com mais de 100 mil habitantes até 31 de julho de 2027;
  • Enquanto nas com mais de 30 mil habitantes até 31 de julho de 2028.

Durante a reunião, o conselho da Anatel afirmou que a Entidade Administradora da Conectividade de Escolas (EACE) – órgão que será criado com funcionários dos Ministérios da Educação e Comunicações – deverá acompanhar a obrigação das operadoras fornecerem internet para as escolas públicas do país.

O processo do edital foi iniciado em 12 de novembro de 2020, quando encaminhado para deliberação pelo Conselho Diretor. Em 25 de fevereiro de 2021, a proposta foi aprovada pelo colegiado e, em seguida, encaminhada à apreciação do Tribunal de Contas da União (TCU) – que deliberou sua aprovação com sete votos a favor em 25 de agosto de 2021.

Papel das operadoras

As operadoras de telefonia que comprarem as radiofrequências devem seguir uma série de exigências. Os arrematadores das frequências 3,5 GHz, por exemplo, deverão se responsabilizar pela criação da rede privada de 5G do governo federal que será utilizada pelos órgãos públicos, no entanto, a Anatel ampliou o prazo para o feito.

Além disso, as operadoras responsáveis por essa que será a mais concorrida das frequências por ser a mais utilizada no mundo e que afeta diretamente o consumidor final, também devem:

  • Expandir 13 mil quilômetros de cabos de fibra ótica nos leitos dos reios da região Norte;
  • Realizar a troca da faixa de 3,5 GHz que é responsável pela transmissão de TV via parabólica, migrando os usuários para banda Ku e distribuindo kits para conversão.

O restante de todas as operadoras que participarem do leilão do 5G devem investir em instalação de rede 4G em munícipios com mais de 600 habitantes, ampliar a cobertura nas estradas do país e fomentar o roaming nacional obrigatório.

Publicado por Olhar Digital 

13 set
5 dicas de como ser um bom programador

Dentro da área de tecnologia, uma das profissões que mais cresce é a de programador. Afinal, eles são fundamentais para o desenvolvimento das empresas do século XXI, onde vivemos grandes transformações digitais e acompanhar a tecnologia é primordial para empreender com sucesso.

O desenvolvedor é o responsável por organizar códigos e linguagens de programação dentro da tecnologia da informação. Isto é, uma série de automatizações que chamamos de programas ou sistemas de computador (software), facilitando as operações humanas na atualidade.

O que o mercado esperam de um desenvolvedor?

Iniciativa, independência e perseverança para aprender e resolver problemas de maneira autodidata. Essas características, além das habilidades técnicas, também são valorizadas pelo mercado.

Além disso, os profissionais de tecnologia não precisam ficar restritos à área. É possível aproveitar para explorar outros conhecimentos que possam contribuir com o seu trabalho, como gestão de negócios e design.

Confira as dicas de como ser um bom programador:

Dica 1: Não pare de aprender

Não ache que você vai aprender a programar somente no trabalho, bons programadores sempre procuram aprender algo novo, seja uma nova linguagem, uma nova técnica, uma nova ferramenta, ou outra coisa.

Procure interagir com outros desenvolvedores, seja em um curso, projeto paralelo ou eventos, pois é sempre bom ter uma visão diferente sobre o assunto programação.

Tenha fome e sede de conhecimento pois nosso cérebro precisa de estímulos constantes e tendemos ficar estagnados, achando que estamos dominando os assuntos que nos cercam no dia a dia.

 

Dica 2: Pense muito antes de começar a escrever seu código

Tenha um raciocínio mais analítico, pense em como fazer a sua tarefa e em todos os impactos que sua alteração pode causar em vez de sair codificando.

Planeje tudo o que você tem que fazer para entregar sua tarefa e faça um checklist de tudo o que você precisa fazer e testar para garantir que você não entregue sua tarefa pela metade ou com muitos bugs.

Dica 3: Escreva códigos simples

Bons programadores escrevem códigos para que outros programadores consigam ler, ou seja, faça isso o mais simples e direto que você conseguir.

Não escreva código duplicado, sempre volte no que você está codificando e tente identificar partes repetidas e extraia essas partes para novos métodos.

De nome as variáveis para identificar o que elas fazem e não para identificar os tipos que elas são.

Escreva métodos pequenos e evite usar parâmetros complexos para que eles possam ser testáveis com testes unitários e de nomes que significam o que realmente eles fazem.

Dica 4: Saiba pedir ajuda

Não fique com medo de pedir ajuda, pois seu colega ao lado já pode ter resolvido o problema que você tem no momento. Mas cuidado para não ficar parando seu colega muitas vezes, pois você pode atrapalhar sua concentração e sua produtividade.

Antes de pedir ajuda, certifique-se que você esgotou a maioria das soluções que você encontrou, depure cada linha do código para entender como ele funciona e se for um assunto que você não domina procure estudar sobre ele nas horas vagas.

 

Dica 5: Compartilhe seu conhecimento

Não seja egoísta mantendo o conhecimento todo para você, você não vai colocar seu emprego em perigo se seus colegas melhorarem, pelo contrário, você pode acabar se tornando um ponto de referência na sua equipe.

Crie uma cultura de ajudar os outros, além de trabalhar melhor em equipe você vai melhorar o conhecimento dos outros.

 

Fonte: Fábrica de Código

08 set
Menino de 12 anos ganha R$ 2 milhões com NFTs de baleias

Benyamin Ahmed criou uma coleção de mais de 3 mil imagens de baleias e vendeu tokens digitais delas.

Um menino de 12 anos, morador de Londres, no Reino Unido, ganhou cerca de £ 290 mil (aproximadamente R$ 2 milhões) durante as férias escolares, depois de criar uma série de obras de arte pixeladas chamadas Weird Whales e vender como NFTs (“token não fungível”, em tradução livre) .

Com os NFTs, uma obra de arte pode ser “tokenizada” para criar um certificado digital de propriedade que pode ser comprado e vendido.

Eles geralmente não fornecem ao comprador a obra de arte propriamente dita ou seus direitos autorais.

Benyamin Ahmed está mantendo seus ganhos na forma de Ethereum — a criptomoeda em que foram vendidos.

Isso significa que o valor pode aumentar ou diminuir — e não há respaldo das autoridades se a carteira digital em que ele guarda o montante for hackeada ou comprometida.

Ele nunca teve uma conta bancária tradicional.

Extremamente orgulhoso

Os colegas de escola de Benyamin ainda não sabem de sua recém-adquirida cripto fortuna, embora ele tenha feito vídeos no YouTube sobre seu hobby, que ele gosta tanto quanto natação, badminton e taekwondo.

“Meu conselho para outras crianças que talvez queiram entrar neste espaço é não se obrigar a fazer codificação, talvez porque haja pressão dos colegas — assim como se você gosta de cozinhar, cozinhe, se gostar de dançar, dance, apenas faça o melhor que puder”, diz ele.

O pai de Benyamin, Imran, um desenvolvedor de software que trabalha com finanças tradicionais, incentivou Benyamin e seu irmão, Yousef, a começar a codificar aos cinco e seis anos.

Os meninos tiveram a vantagem de contar com uma forte rede de especialistas em tecnologia para pedir conselhos e ajuda — mas o pai é extremamente orgulhoso deles.

“Era meio que um exercício divertido — mas percebi muito cedo que eles eram muito receptivos e muito bons nisso”, conta Imran.

“Então começamos a levar um pouco mais a sério — e agora é todo santo dia … mas você não pode forçar essas coisas, não pode dizer: ‘Vou aprender codificação em três meses’.”

Os meninos faziam 20 ou 30 minutos de exercícios de codificação por dia — inclusive nos feriados, diz ele.

Projeto Weird Whales de Benyamin Ahmed, que virou NFT — Foto: Benyamin Ahmed via BBC

Weird Whales é a segunda coleção de arte digital de Benyamin, lançada na sequência de uma coleção anterior inspirada no videogame Minecraft que vendeu menos.

Desta vez, ele se inspirou em uma imagem bem conhecida de um meme de baleia pixelada e em um estilo popular de arte digital — mas usou seu próprio programa para criar a coleção de 3.350 baleias do tipo emoji.

“Foi interessante ver todas elas nascerem, à medida que apareciam na minha tela, sendo geradas lentamente”, diz ele.

Benyamin já está trabalhando em sua terceira coleção, agora com o tema de super-heróis.

Ele também gostaria de fazer um “jogo subaquático” com as baleias.

“Seria incrível”, diz ele.

Imran tem “100% de certeza” de que seu filho não infringiu a lei de direitos autorais — ele consultou advogados para “auditar” seu trabalho e obter conselhos sobre como registrar seus próprios designs.

O mundo da arte está dividido, no entanto, sobre a moda dos NFTs.

Os artistas dizem que eles são uma fonte adicional de receita útil. E há vários casos de vendas incrivelmente altas.

Mas também há ceticismo sobre até que ponto os NFTs são um investimento realista de longo prazo.

Charles Allsopp, ex-leiloeiro da renomada casa de leilões Christie’s, disse à BBC News que comprá-los “não faz sentido”.

27 ago
Tesla anuncia robô e ele é projetado para ser à prova de revolta das máquinas

No evento Tesla AI Day a versão deste ano da conferência anual que antes já abordou, entre outras, veículos autônomos. Nele, o CEO Elon Musk surpreendeu ao anunciar a entrada de sua montadora de automóveis num ramo completamente diferente de negócios: robôs.

Do tipo humanóide, como os da Boston Dynamics. Mas menos assustadores. Ou nem tanto, julgue por si mesmo:

Por que uma fábrica de carros decide criar robôs? Porque pode, basicamente. “O robô não é motivado especificamente por necessidades industriais”, afirmou Musk na apresentação. “Só estamos obviamente fazendo as peças que são necessárias para um robô humanóide útil, então acho que provavelmente devíamos fazê-lo. E, se não fizermos nós, outros farão, então acho que devemos fazer e ter certeza que é seguro.”

Robô da Tesla se baseia em carros

Talvez seja só o famoso marketing muskiano. Ou talvez tenham mesmo algo na manga, porque a base toda do projeto, segundo Musk, são os algoritmos e componentes já usados em carros.

O robô terá uma altura de 1,76 metros e peso de 56 kg, construído em um material de liga leve. A cabeça será equipada com câmeras de piloto automático, que já estão sendo usadas pelos veículos da Tesla para detectar o ambiente. Oito no total.

Essas câmeras, junto com 40 atuadores eletromecânicos espalhados pelo Tesla Bot, serão alimentadas pelo sistema Full Self-Driving (FSD) da empresa. Também terá um display para mostrar informações na cabeça, onde ficariam os olhos. Ao estilo Daft Punk.

slide de apresentação do Tesla Bot

O plano é que seja capaz de realizar tarefas inseguras, repetitivas ou enfadonhas. Musk deu um exemplo banal, fazer compras em uma loja. O CEO também disse (agora certamente fazendo marketing muskiano) que, no futuro, fazer tarefas físicas “será uma escolha”.

Medo da Skynet

O que Musk quis dizer por “ter certeza que é seguro”? O robô da Tesla teria várias características para evitar se voltar contra humanos. Num cenário de invasão das máquinas, como a comandada pela Skynet na série Exterminador do Futuro.

Está sendo projetado para ser amigável e para ser “dominado” por humanos fisicamente. Isto é: pra você ganhar dele numa briga. E terá também uma velocidade máxima limitada a 8 km/h. Segundo Musk, a ideia neste caso é facilitar para que as pessoas possam sair correndo dele.

Outro projeto tratado no Tesla AI Day tem algo de Skynet em si: é o Dojo, um supercomputador destinado a treinar carros (e, se procede tudo acima, robôs) navegar pelas ruas da cidade sem ajuda humana. Previsto para estar operacional no próximo ano, o Dojo será alimentado por centenas de chips D1 projetados pela Tesla.

Publicado por Olhar Digital 

23 ago
Top 8 Machine Learning e Deep Learning Frameworks

Machine Learning pode ser um pesadelo sem algum tipo de framework. Você não pode criar tudo do zero, especialmente se estiver em um ambiente de negócios onde os prazos de entrega de projetos são curtos. Mesmo que você queira (e se quiser, comente aqui e conte-nos!), na maioria dos casos, você não tem tempo. Você precisa de um framework para ajudar a dar vida à sua visão. Aqui estão os Top 8 Machine Learning e Deep Learning Frameworks projetados para ajudar a colocar esses projetos em prática. E, como sempre, informe-nos se o seu  framework preferido não estiver na lista.

Scikit-Learn

O Scikit-Learn é uma façanha da comunidade Python. Ele lida com o aprendizado supervisionado e não supervisionado e possui documentação robusta para todas as perguntas possíveis que você tiver. Se você conhece Python, esse framework é mandatório no seu arsenal de ferramentas.

É capaz de trabalhar em várias tarefas sem sacrificar a velocidade. O Spotify o usa, assim como o Evernote. Ele vem com API e é altamente eficiente para mineração de dados. Se você está construindo modelos preditivos, o Scikit-Learn é uma opção fantástica. Esse framework é abordado em detalhes nos cursos da Formação Cientista de Dados.

TensorFlow

O TensorFlow continua sendo um gigante no setor, com bibliotecas de código aberto e suporte para classificações, regressões e redes neurais. É compatível com CPU e GPU e é executado em dispositivos móveis para aqueles que precisam de flexibilidade.

O DeepMind do Google usa o TensorFlow para pesquisa e as opções de produção e implantação escalonáveis ​​o tornam um padrão. Embora seja um pouco denso para o aprendizado de máquina, se você estiver usando um híbrido de aprendizado de máquina e aprendizado profundo e disposto a dedicar tempo ao treinamento, o TensorFlow é uma opção robusta. Há um capítulo inteiro dedicado ao TensorFlow no curso gratuito Python Fundamentos Para Análise de Dados.

PyTorch

A alternativa do Facebook ao TensorFlow do Google é um framework de aprendizado de máquina mais leve e flexível criado para oferecer eficiência de ponta. O PyTorch é acessível a quem conhece Python e, para fins de pesquisa em Machine Learning, é mais popular que o TensorFlow.

Possui excelente documentação da comunidade e oferece recursos de edição fáceis e rápidos. É um pouco mais lento no lado da produção, mas é facilmente corrigido com um servidor de API. Ele fornece gráficos dinâmicos (em oposição aos gráficos estáticos do TensorFlow) e é de código aberto. Usamos o PyTorch na Formação IA e Formação IA Aplicada à Medicina.

CAFFE

O CAFFE pode ser mais popular no aprendizado profundo, mas se você estiver concentrado em plataformas como o celular, ele poderá fornecer uma alternativa flexível ao TensorFlow. O Facebook usa o CAFFE 2 em seu aplicativo móvel, por exemplo.

As restrições computacionais podem tornar alguns frameworks muito volumosos, mas o CAFFE é rápido e excelente para reconhecimento visual. Você precisará estar familiarizado com a linguagem C ++, portanto, desenvolvedores e engenheiros de software, esse pode ser o seu ponto de partida para os modelos de aprendizado de máquina.

Keras

Outro que preenche uma lacuna entre aprendizado de máquina e aprendizado profundo, o Keras é uma estrutura simples de aprendizado de máquina com uma interface simplista. Ele fornece prototipagem rápida e trabalha com o TensorFlow. É simples de aprender e dá aos desenvolvedores que trabalham com Python uma boa base para o aprendizado profundo.

Seu uso principal é em classificação. Outras funcionalidades como tradução, reconhecimento de fala e marcação, também fazem parte de seu uso.

Firebase ML Kit

Uma oferta relativamente nova, o Firebase ML Kit oferece aos desenvolvedores uma opção multiplataforma capaz de lidar com reconhecimento de texto, rotulagem de imagens e classificação de objetos. Possui modelos pré-treinados e permite criar projetos minimamente codificados.

O Google o introduziu para ajudar os desenvolvedores a integrar modelos de aprendizado de máquina em aplicativos móveis sem muita experiência técnica. Como essa é uma função cheia de problemas e dificuldades, o design do Google ajuda a reduzir os retrocessos que os desenvolvedores inexperientes precisam fazer.

MLR3

Todos os frameworks anteriores são para Linguagem Python. Mas temos aqui um representante para a Linguagem R. Um framework leve, fácil de usar e com diversas funcionalidades que agilizam a criação e experimentação de modelos de Machine Learning. E como é orientado a objetos, sua curva de aprendizado pode ser menor.

Caret

Outro representante da Linguagem R (e amplamente usado na Formação Cientista de Dados), o Caret vem crescendo bastante na comunidade de Cência de Dados. Sua principal vantagem é que possui funções para todo o processo de Machine Learning, desde a separação dos dados em amostras de treino e teste, até o treinamento e avaliação do modelo.

Decidindo Sobre Qual Framework Usar

A comunidade de Ciência de Dados tornou seus projetos de aprendizado de máquina muito mais confortáveis com frameworks ricos para ajudá-lo a alcançar seus objetivos finais. Você não precisa começar do zero, a menos que queira, e o tempo economizado vai diretamente para o seu tempo de inovação. Se você está chegando agora ao universo da Ciência de Dados, o Scikit-Learn é a opção recomendada para começar.

A lista não é exaustiva, mas esses frameworks são opções gratuitas e viáveis para o desenvolvimento de modelos de Machine Learning e sistemas de Inteligência Artificial. Se você já é mestre em aprendizado de máquina, ajude-nos nos comentários, descrevendo os frameworks que você usa para ajudar a garantir que seus projetos saiam do papel sem problemas. Todos nós podemos aprender pelo exemplo e com uma comunidade tão ricamente colaborativa.

19 jul
Usando Redes Neurais Recorrentes na Sugestão de Palavras

Você já teve curiosidade em saber como o Google prevê qual a próxima palavra que você vai digitar em uma pesquisa?

Isso é feito através de uma tarefa conhecida como Next Word Prediction ou Language Modelling. Essa tarefa é uma das mais básicas do Processamento de Linguagem Natural (PLN), e também é usada em teclados de smartphone, e em muitas outras aplicações, como as que envolvem sumarização de texto, por exemplo.

Neste post, apresento um pequeno tutorial de como fazer um preditor de próximas palavras utilizando Redes Neurais implementadas com a ferramenta TensorFlow.

Redes Neurais Recorrentes

Redes Neurais são modelos matemáticos usados na computação para a aprendizagem de máquina e cujo objetivo é simular o sistema nervoso de um animal para “aprender” coisas úteis para uma tarefa. Por exemplo, aprender como uma palavra pode ser traduzida para outro idioma é útil para um sistema de tradução automática. Ou para um transcritor, como o nosso Transcritor Élfico.

Essas redes são formadas por neurônios artificiais interconectados, que computam valores de entrada para fornecer uma saída, simulando o funcionamento de um neurônio biológico. Esses neurônios são unidades de processamento que interagem entre si e estão organizados em camadas. É da interação entre os neurônios e as camadas que vem a capacidade de inteligência da Rede Neural.

Quando o conteúdo é passado mais de uma vez pela rede neural para reforçar o aprendizado, ela passa a ser chamada de Rede Neural Recorrente. O seu uso leva em consideração que o que é aprendido por um neurônio biológico não deve ser esquecido, mas reutilizado para “refinar”o aprendizado.

Fonte da imagem: https://leonardoaraujosantos.gitbooks.io/artificial-inteligence/content/recurrent_neural_networks.html

Vamos ao código

Redes Neurais Recorrentes podem ser implementadas com a ferramenta TensorFlow, dentre outras, que é uma biblioteca de software para aprendizagem de máquina mantida pelo Google. Essa ferramenta fornece uma interface que torna a construção de aplicações de aprendizagem de máquina mais simples.

No nosso exemplo, nós usaremos a API Keras, que tem o objetivo de reduzir o esforço cognitivo necessário para a construção de modelos de aprendizagem de máquina. Portanto, vamos começar instalando essa API e outras dependências do nosso projeto:

pip install tensorflow
pip install keras
pip install numpy
pip install matplotlib
pip install nltk
pip install pickle
This Gist brought to you by gist-it.view rawREADME.md

Base de treinamento

Com tudo instalado, o que precisamos agora é preparar a nossa base de treinamento, que é de onde a nossa rede neural vai aprender a predizer a próxima palavra.

Nós usaremos um corpus (documento de texto) em português brasileiro, extraído a partir de notícias do site da Revista Pesquisa FAPESP. Você deve baixar o corpus usando este link e salvá-lo na pasta data, ou executar a primeira linha do trecho de código abaixo no seu terminal. Depois, precisamos extrair os arquivos baixados (segunda linha), e extrair a parte do corpus que é em português.

        wget -P ./data/ "http://www.nilc.icmc.usp.br/nilc/tools/fapesp-corpora.tar.gz"
        tar -xvzf  ./data/fapesp-corpora.tar.gz -C data
        tar -xvzf ./data/fapesp-corpora/corpora/pt.tgz -C data/fapesp-corpora/corpora/
This Gist brought to you by gist-it.view rawmakefile

O script Python a seguir tem a função de compilar os arquivos do corpus em um único TXT com texto plano. Nele é possível definir a quantidade de arquivos serão utilizados, uma vez que o corpus é muito grande e, dependendo da capacidade de processamento da máquina, usar ele por inteiro poderia fazer o modelo levar muito tempo para ser treinado. De todo modo, fica ao seu critério. Se quiser utilizar o corpus inteiro, só apagar o trecho [:FILES_NUMBER] do script.

from os import listdir
from os.path import isfile, join
dataset_path = './data/fapesp-corpora/corpora/pt/data'
onlyfiles = [f for f in listdir(dataset_path) if isfile(join(dataset_path, f))]

FILES_NUMBER = 20

trainin_text = ''
for file_ in onlyfiles[:FILES_NUMBER]:
    trainin_text += open(dataset_path+"/"+file_).read()

training_corpus = open('./data/training_corpus.txt', 'w')
training_corpus.write(trainin_text)

Treinamento

Primeiro vamos importar as bibliotecas necessárias no treinamento:

import numpy as np
from nltk.tokenize import RegexpTokenizer
from keras.models import Sequential, load_model
from keras.layers import LSTM
from keras.layers.core import Dense, Activation
from keras.optimizers import RMSprop
import matplotlib.pyplot as plt
import json
import pickle
This Gist brought to you by gist-it.view rawtrain.py

Depois, carregamos a base de treinamento.

path = 'data/training_corpus.txt'
text = open(path).read().lower()
This Gist brought to you by gist-it.view rawtrain.py

Então, utilizamos um tokenizador para dividir o corpus em tokens, ou seja, em palavras.

tokenizer = RegexpTokenizer(r'\w+')
words = tokenizer.tokenize(text)
This Gist brought to you by gist-it.view rawtrain.py

Em seguida, precisamos ter a lista das palavras únicas presentes no corpus. Além disso, precisamos de um dicionário (<chave: valor>) com cada palavra da lista de palavras únicas como chave e sua posição correspondente como valor (e.g., <clube: 128 , dos: 129, …>).

unique_words = np.unique(words)
print("Qtd. de palavras únicas:", len(unique_words))
unique_word_index = dict((c, i) for i, c in enumerate(unique_words))
This Gist brought to you by gist-it.view rawtrain.py

Engenharia de Features

Em Aprendizagem de Máquina features são características que descrevem um determinado recurso de aprendizagem. Por exemplo, se você construir um modelo para identificar objetos em fotografias, é natural que as features sejam características desses objetos (cor, tamanho, forma, etc.).

Em se tratando de texto, as features podem ser informações sobre como as palavras estão dispostas nas frases, ou como elas se relacionam, etc. No nosso caso, usaremos como features as palavras que antecedem aquela que desejamos predizer. Para isso, definimos a variável SEQUENCE_LENGTH, que determina a quantidade de palavras anteriores que usaremos na predição. Além disso, criamos uma lista vazia chamada prev_words, onde as palavras anteriores serão armazenadas, e uma lista next_words para as suas “próximas palavras” correspondentes. Preenchemos essas listas fazendo um loop em um intervalo de 3 menor que o comprimento das palavras.

SEQUENCE_LENGTH = 3
prev_words = []
next_words = []
for i in range(len(words) - SEQUENCE_LENGTH):
    prev_words.append(words[i:i + SEQUENCE_LENGTH])
    next_words.append(words[i + SEQUENCE_LENGTH])
This Gist brought to you by gist-it.view rawtrain.py

Depois, criamos dois arrays utilizando a biblioteca numpy: X para as features e Y para os rótulos correspondentes, ou seja, as próximas palavras.

X = np.zeros((len(prev_words), SEQUENCE_LENGTH, len(unique_words)), dtype=bool)
Y = np.zeros((len(next_words), len(unique_words)), dtype=bool)
for i, each_words in enumerate(prev_words):
    for j, each_word in enumerate(each_words):
        X[i, j, unique_word_index[each_word]] = 1
    Y[i, unique_word_index[next_words[i]]] = 1
This Gist brought to you by gist-it.view rawtrain.py

Esses arrays podem parecer estranhos à primeira vista, mas vale destacar que esse tipo de encoding, conhecido como One Hot Encoding torna a aprendizagem e a predição mais eficiente, como explicado no vídeo abaixo (ative as legendas):

O nosso modelo

Nós usamos um modelo LSTM com uma única camada e 128 neurônios, uma camada de conexão (Dense), e a função softmax para ativação.

model = Sequential()
model.add(LSTM(128, input_shape=(SEQUENCE_LENGTH, len(unique_words))))
model.add(Dense(len(unique_words)))
model.add(Activation('softmax'))
This Gist brought to you by gist-it.view rawtrain.py

Treinando

Vamos treinar nosso modelo em 120 epochs, valor que pode ser alterado de acordo considerando capacidade de processamento da sua máquina, sua pressa e o desempenho desejado para a sua rede neural. Usaremos o algoritmo RMSprop para otimização.

optimizer = RMSprop(lr=0.01)

model.compile(loss='categorical_crossentropy',
              optimizer=optimizer, metrics=['accuracy'])

history = model.fit(X, Y, validation_split=0.05,
                    batch_size=128, epochs=120, shuffle=True).history
This Gist brought to you by gist-it.view rawtrain.py

Por fim, salvamos nosso modelo e o histórico de treinamento, e plotamos o histórico para ver a evolução da acurácia obitida pelo modelo.

model.save('saved_models/word_prediction.h5')
pickle.dump(history, open("saved_models/history.p", "wb"))

plt.plot(history['accuracy'])
plt.plot(history['val_accuracy'])
plt.title('model accuracy')
plt.ylabel('accuracy')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.show()

plt.plot(history['loss'])
plt.plot(history['val_loss'])
plt.title('model loss')
plt.ylabel('loss')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.show()
This Gist brought to you by gist-it.view rawtrain.py

Testando

Só lembrando: o nosso modelo deve prever a próxima palavra considerando as 3 anteriores, ou as SEQUENCE_LENGH anteriores. Por isso, precisamos de um texto prévio para a predição. Esse texto é preparado pela seguinte função:

def prepare_input(text):
    x = np.zeros((1, SEQUENCE_LENGTH, len(unique_words)))
    for t, word in enumerate(text.split()):
        print(word)
        x[0, t, unique_words.index(word)] = 1
    return x
This Gist brought to you by gist-it.view rawtest.py

Usamos a seguinte função para escolher as palavras com maior probabilidade, conforme predição do modelo:

def sample(preds, top_n=3):
    preds = np.asarray(preds).astype('float64')
    preds = np.log(preds)
    exp_preds = np.exp(preds)
    preds = exp_preds / np.sum(exp_preds)
This Gist brought to you by gist-it.view rawtest.py

E fazemos a previsão assim:

def predict_completions(text, n=3):
    if text == "":
        return("0")
    x = prepare_input(text)
    preds = model.predict(x, verbose=0)[0]
    next_indices = sample(preds, n)
    return [unique_words[idx] for idx in next_indices]

q = "a relação entre a"
print("correct sentence: ", q)
seq = " ".join(tokenizer.tokenize(q.lower())[0:SEQUENCE_LENGTH])
print("Sequence: ", seq)
print("next possible words: ", predict_completions(seq, 5))
This Gist brought to you by gist-it.view rawtest.py

Geração de linguagem natural

Nós ainda podemos usar o nosso modelo para fazer geração de texto automático. Tomando como entrada 3 palavras e gerando uma frase como palavras, semelhante ao que fizemos com as Cadeias de Markov.

sentence = 'os únicos envolvidos'
words = sentence.split(" ")
while len(words) < SENTENCE_LENGTH:
    q = (["0"]*SEQUENCE_LENGTH)[:SEQUENCE_LENGTH-len(words)] + words
    sentence = ' '.join(q)
    seq = " ".join(tokenizer.tokenize(sentence.lower())[0:SEQUENCE_LENGTH])
    preds = predict_completions(seq, 1)
    if len(preds) > 0:
        words.append(preds[0])

print("Generated sentence: ", " ".join(words))

Conclusões

Nesse exemplo usamos como vocabulário apenas as palavras presentes no corpus de treinamento, que não é um número muito grande. Assim, se você quiser um modelo mais abrangente, precisa usar um vocabulário maior, como o do Freeling, por exemplo, ou de algum dicionário do português.

Pode ser que os resultados obtidos nos testes a partir da execução do nosso modelo, não sejam muito bons. Para melhorá-los, você pode tentar aumentar o tamanho do corpus de treinamento, a quantidade de épocas, ou utilizar Word Embeddings para a extração de features (Cenas dos próximos capítulos).

O código usado neste tutorial está disponível no GitHub.

Referências

Publicado por Clube dos Geeks

10 jun
9 Must-Read Python Books in 2021

Which book would you recommend someone to read?

“The joy of coding Python should be in seeing short, concise, readable classes that express a lot of action in a small amount of clear code — not in reams of trivial code that bores the reader to death.”

— Guido van Rossum

Python’s popularity and all-around nature make it the perfect programming language for a diverse range of projects. Moreover, this popularity and wide adoption by the corporations has led to a sharp demand in the industry for skilled Python developers.

Today, there are literally tons of resources, such as books, YouTube channels, podcasts, GitHub repos, online courses, and websites that extensively cover a variety of topics in Python.

Python Books

Just take it slow, and do not hurt your brain.

The internet is filled with loads of convenient mediums to learn everything about Python. Although we discussed the more widely adopted mediums earlier, books still remain an all-time hot favorite among learners. The thing that makes books so much popular among Python learners is that they allow the reader to absorb and practice the content at their own time and pace.

Stick with us while we uncover a handful of more well-known Python books for learners of all skill levels in the list below.

1. Think Python

  • Author: Allen B. Downey
  • Publisher: O’Reilly
  • Difficulty Level: Beginner

Think Python

Cover of the book ”Think Python”

“For all live births, the mean pregnancy length is 38.6 weeks, the standard deviation is 2.7 weeks, which means we should expect deviations of 2–3 weeks to be common.”

— Allen B. Downey

“Think Python” is undoubtedly one of the best books out there to get into the basics of Python programming. The book offers beginners an excellent entry point into the world of Python by taking on a more gradual approach to teaching the topics.

The latest edition of the book updates all the included code examples with their Python 3 counterpart to offer learners the most up-to-date learning experience. The book also comes with a number of exercises, case studies, and detailed explanations about the topics. Some key highlights of “Think Python” are listed below:

● Offers beginners the know-how to jump into learning Python right from their browser.

● Provides a clear definition of the concepts in Python.

● Emphasis on debugging to teach the readers to quickly find, resolve, and avoid bugs.

2. Python Programming: An Introduction to Computer Science

  • Author: John M. Zelle
  • Publisher: Franklin, Beedle
  • Difficulty Level: Beginner

Python Programming: An Introduction to Computer Science

Cover of the book ”Python Programming: An Introduction to Computer Science”

Thanks to the ease and simplicity of Python, it can be an awesome first programming language for beginners. Similarly, “Python Programming: An Introduction to Computer Science” has been written with a singular goal of making the fundamentals of Python as easy as possible for beginners.

The author targeted this book to be used as a college-level textbook, and for that, the author has taken more of a traditional approach to teaching Python by focussing on problem-solving, program design, and programming as core skills. So, if you are a college student and want to learn Python, we recommend giving this book a try. Key highlights of this book are listed below:

● Focus on using an easy-to-use graphics package to encourage the use of such GUI packages

● Loads of interesting examples and end-of-chapter exercises

● Focus on helping the reader master the fundamentals without overwhelming them with the entirety of Python topics

3. Django for Beginners: Build Websites with Python and Django

  • Author: William S. Vincent
  • Publisher: WelcomeToCode
  • Difficulty Level: Beginner

Build websites with Python and Django

Cover of the book ”Django for Beginners: Build Websites with Python and Django”

Django has become one of the most popular web application development frameworks among modern developers. Built with Python, Django has proven itself capable enough to offer virtually everything needed for building stunning web applications without diving into core Python.

Starting with a simple Hello World, “Django for Beginners: Build Websites with Python and Django” flawlessly delivers the gradual approach to teaching you how you can build full-scale Django applications. The book also focuses on teaching you the best practices for maintaining security, customizing the look and feel, and effective testing of your app.

Apart from the Hello World app, the rest of the apps covered in this book include the following:

● A Pages app

● A Message Board app

● A Blog app

● A Newspaper app

4. Python Pocket Reference: Python in Your Pocket

  • Author: Mark Lutz
  • Publisher: O’Reilly
  • Difficulty Level: Intermediate

Python Pocket Reference

Cover of the book ”Python Pocket Reference: Python in Your Pocket”

“In the Python way of thinking, explicit is better than implicit, and simple is better than complex.”
― Mark Lutz

Python Pocket Reference: Python in Your Pocket” is not really a full-on Python learning resource but instead offers instant references to developers on a host of Python topics. The author has intended this book to be used as a companion to other more fuller Python books that offer tutorials, code examples, and other learning materials.

The latest edition of the book covers all the need-to-know content from Python 3.4 and 2.7 while also covering the difference between the two versions. Mark’s pocket reference is targeted towards developers with some experience with Python programming. The book covers several topics, such as:

● Commonly used standard library modules and extensions

● Syntax for statements for creating and processing objects

● Object-oriented programming tools

● Built-in object types, like numbers, dictionaries, and more

● Special operator overloading methods

5. Python Machine Learning: Machine Learning and Deep Learning With Python, scikit-Learn, and TensorFlow 2

  • Author: Sebastian Raschka & Vahid Mirjalili
  • Publisher: Packt Publishing
  • Difficulty Level: Intermediate

Python Machine Learning

Cover of the book ”Python Machine Learning: Machine Learning and Deep Learning with Python, scikit-learn, and TensorFlow 2”

Thanks to Python, the popularity of Machine Learning has skyrocketed in recent years. Python Machine Learning: Machine Learning and Deep Learning with Python, scikit-learn, and TensorFlow 2” is aimed towards both Python developers and data scientists packing the foundational knowledge of the programming language, who are eager to create impressive Machine Learning and Deep Learning-powered smart solutions. If you’re either one of these, this book will be the perfect fit for you.

When it comes to the contents of this book, apart from the necessary introduction, the third edition provides plenty of coverage on Machine Learning topics, such as:

● Training simple ML algorithms

● Classifiers with the Scikit-learn package

● Steps on building good datasets

● Embedding Machine Learning models to applications

6. Deep Learning with Python

  • Author: François Chollet
  • Publisher: Manning Publications
  • Difficulty Level: Intermediate

Deep Learning with Python

Cover of the book ” Deep Learning with Python”

Deep Learning with Python” is an excellent book that simplifies the intricacies of Deep Learning using Python. The author of this book is none other than the creator of the famed Deep Learning Python API called Keras. François’ book uses Keras as the bridge between the world of Deep Learning and Python to gradually build your understanding of the subject with intuitive explanations and practical examples.

The book has been split into parts, covering most of the introductory stuff about Machine Learning and Neural Networks and the practical application of Deep Learning for real-world challenges and tasks, such as:

● Computer Vision

● Text and sequences

● Best practices

● Generative Deep Learning

7. Python in a Nutshell: A Desktop Quick Reference

  • Author: Alex Martelli, Anna Ravenscroft & Steve Holden
  • Publisher: O’Reilly
  • Difficulty Level: Intermediate

Python in a Nutshell

Cover of the book ”Python in a Nutshell: A Desktop Quick Reference”

No matter if you have worked with Python in the past or you’re a veteran developer looking to pick up Python, you’ll find “Python in a Nutshell: A Desktop Quick Reference” exceptionally useful. The book covers a range of widely used topics from the world of Python and serves as a quick reference for the Python programming language.

The authors of the book have split it into five parts covering everything from the basics to the core features as well as the more advanced ones. A brief explanation about those five parts is below:

● Part I: Covers the introduction and explanation about the Python interpreter

● Part II: Covers the core python language and its built-in topics

● Part III: Covers the Python library and extension modules

● Part IV: Covers network and web programming with Python

 Part V: Covers extending Python programs, it’s distribution and migration from v2 to v3

8. Programming Python: Powerful Object-Oriented Programming

  • Author: Mark Lutz
  • Publisher: O’Reilly
  • Difficulty Level: Intermediate

Programming Python

Cover of the book ”Programming Python: Powerful Object-Oriented Programming”

Let’s say you’ve understood the introductory topics in Python with great clarity, but what next?

The most obvious thing to do next is to test out your newfound knowledge by developing a simple yet practical Python application.

If domain-specific examples are what you’re looking for, we can’t recommend Lutz’s book “Programming Python: Powerful Object-Oriented Programming” enough. The book is perfect for intermediate Python developers and covers in-depth tutorials for some of the widely used applications from a diverse range of topics listed below:

● A brief and quick introduction to Python

● System programming with system tools and files and directories

● GUI programming with Tkinter

● Internet programming with client- and server-side scripting, network scripting, and an email client

9. Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit

  • Author: Steven Bird, Ewan Klein & Edward Loper
  • Publisher: O’Reilly
  • Difficulty Level: Advanced

Natural Language Processing with Python

Cover of the book ”Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit”

Natural Language Processing has become a vital element for modern devices as they play a key role in offering smart features like predictive text, handwriting recognition, human-friendly language translation, and more. The book “Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit” contains sufficient learning resources for those taking their first steps into the world of programming or those new to Python.

This book would be more suitable for developers with a strong grasp of Python fundamentals as it is filled with hundreds of detailed examples and exercises. It uses the Python library NLTK to teach topics, such as:

● Introduction to NLP

● Accessing text and lexical resources

● Processing raw text

● Categorizing and tagging words

● Text classification

Conclusion

Learning Python can open a slew of lucrative opportunities for you. If you are eager to snag one of the most trending and high-paying job profiles of the century, we recommend getting a solid understanding of the concepts in Python. The books we covered in this article do an exceptional job explaining even the most intricate Python topics in a reader-friendly manner.

 Published by Better Programming

02 jun
Como balão dirigido por inteligência artificial surpreendeu criadores

Os balões de hélio do Projeto Loon, do Google, tinham como objetivo levar acesso à internet a partes remotas do mundo

A equipe do Google olhava perplexa para as telas de seus computadores.

Eles haviam passado vários meses aperfeiçoando um algoritmo desenvolvido para conduzir um balão de hélio não tripulado de Porto Rico ao Peru. Mas algo estava errado.

O balão, controlado por inteligência artificial (IA), continuava desviando da rota.

Salvatore Candido, do agora extinto Projeto Loon, do Google, que tinha como objetivo levar acesso à internet a áreas remotas do planeta por meio de balões, não conseguia explicar a trajetória da aeronave.

Seus colegas assumiram manualmente o controle do sistema e o colocaram de volta na rota.

Só mais tarde eles perceberam o que estava acontecendo. Inesperadamente, a inteligência artificial a bordo do balão havia aprendido a recriar uma antiga técnica de navegação desenvolvida por humanos há séculos, senão milhares de anos.

A técnica envolve conduzir a embarcação em ziguezague contra o vento, de modo que seja possível avançar mais ou menos na direção desejada.

Sob condições climáticas desfavoráveis, os balões autônomos aprenderam a se virar sozinhos. O fato de terem feito isso, de forma espontânea, surpreendeu a todos, inclusive aos pesquisadores que trabalhavam no projeto.

“Rapidamente percebemos que tinham sido mais espertos que a gente, quando o primeiro balão autorizado a executar totalmente essa técnica bateu um recorde de tempo de voo de Porto Rico ao Peru”, escreveu Candido em um blog sobre o projeto.

“Nunca me senti tão inteligente e tão burro ao mesmo tempo.”

Este é exatamente o tipo de coisa que pode acontecer quando a inteligência artificial é deixada à sua própria sorte.

Diferentemente dos programas de computador tradicionais, as IAs são projetadas para explorar e desenvolver novas abordagens para tarefas sobre as quais seus engenheiros humanos não lhes falaram explicitamente.

Mas enquanto aprendem como fazer essas tarefas, as IAs às vezes apresentam uma abordagem tão inovadora que pode surpreender até mesmo as pessoas que trabalham com esses sistemas o tempo todo.

Isso pode ser algo bom, mas também pode tornar as coisas controladas por inteligência artificial perigosamente imprevisíveis — robôs e carros autônomos podem acabar tomando decisões que colocam os humanos em perigo.

Como é possível para um sistema de inteligência artificial “superar” seus mestres humanos? E será que poderíamos controlar as mentes das máquinas de alguma forma, para garantir que não aconteça nenhum desastre imprevisto?

Na comunidade de IA, há um caso de criatividade que parece ser mais citado do que qualquer outro.

O momento que realmente empolgou as pessoas sobre o que a inteligência artificial pode fazer, diz Mark Riedl, do Instituto de Tecnologia da Geórgia, nos EUA, foi quando o DeepMind, laboratório de IA do Google, mostrou como um sistema de machine learning (aprendizagem automática) dominou o antigo jogo de tabuleiro Go — e depois derrotou um dos melhores jogadores humanos do mundo.

Balão do Projeto Loon

CRÉDITO,LOON

A inteligência artificial que controlava os balões do Projeto Loon aprendeu uma técnica de navegação para desafiar o vento

“Isso acabou demonstrando que havia novas estratégias ou táticas para contra-atacar um jogador que ninguém realmente havia usado antes — ou pelo menos muitas pessoas não sabiam a respeito”, explica Riedl.

E ainda assim, um inocente jogo de Go desperta sentimentos diferentes entre as pessoas.

Riscos

Por um lado, o DeepMind descreveu orgulhosamente as maneiras pelas quais seu sistema, o AlphaGo, foi capaz de “inovar” e revelar novas abordagens para um jogo que os humanos vêm jogando há milênios.

Por outro lado, alguns questionaram se uma inteligência artificial tão inovadora poderia um dia representar um sério risco para os humanos.

“É ridículo pensar que seremos capazes de prever ou gerenciar o pior comportamento das inteligências artificiais quando não podemos, na verdade, imaginar seu possível comportamento”, escreveu Jonathan Tapson, da Universidade de Western Sydney, na Austrália, após a vitória histórica do AlphaGo.

É importante lembrar, diz Riedl, que as inteligências artificiais não pensam realmente como os humanos. Suas redes neurais são, de fato, vagamente inspiradas em cérebros de animais, mas podem ser melhor descritas como “dispositivos de exploração”.

Quando tentam resolver uma tarefa ou problema, elas não trazem consigo muitas, se é que alguma, ideia preconcebida sobre o mundo em geral. Simplesmente tentam — às vezes, milhões de vezes — encontrar uma solução.

“Nós, humanos, trazemos conosco muita bagagem mental, pensamos nas regras”, explica Riedl.

“Os sistemas de inteligência artificial nem sequer entendem as regras, então eles mexem nas coisas de maneira muito aleatória.”

Dessa forma, as IAs poderiam ser descritas como o equivalente em silício de pessoas com Síndrome do Sábio (ou de Savant), acrescenta Riedl, citando a condição em que um indivíduo tem uma deficiência mental grave, mas também possui uma habilidade extraordinária, geralmente relacionada à memória.

Uma maneira pela qual as IAs podem nos surpreender envolve sua capacidade de lidar com problemas radicalmente diferentes, mas usando o mesmo sistema básico.

Recentemente, uma ferramenta de machine learning desenvolvida para gerar parágrafos de texto foi requisitada a executar uma função muito diferente: jogar uma partida de xadrez.

O sistema em questão se chama GPT-2 e foi criado pela OpenAI. Treinado por meio de milhões de artigos de notícias online e páginas da web, o GPT-2 é capaz de prever a próxima palavra em uma frase com base nas palavras anteriores.

Uma vez que os movimentos de xadrez podem ser representados em caracteres alfanuméricos, “Be5” para mover um bispo, por exemplo, o desenvolvedor Shawn Presser pensou que se ele treinasse o algoritmo por meio de registros de partidas de xadrez, a ferramenta poderia aprender como jogar ao descobrir sequências desejáveis de movimentos.

Presser treinou o sistema com 2,4 milhões de jogos de xadrez.

“Foi muito bacana ver o mecanismo de xadrez ganhando vida”, diz ele.

“Eu não tinha certeza se iria funcionar.”

Mas deu certo. Não é tão bom quanto computadores especialmente projetados para xadrez — mas é capaz de jogar partidas difíceis com sucesso.

Veículo autônomo

CRÉDITO,NICHOLAS KAMM/GETTY IMAGES

Com a inteligência artificial começando a ser usada no mundo real, é importante saber se ela fará algo inesperado

Segundo Presser, o experimento mostra que o sistema GPT-2 tem muitos recursos inexplorados. Um “sábio” com dom para o xadrez.

Uma versão posterior do mesmo software surpreendeu os web designers quando um desenvolvedor o treinou brevemente para produzir códigos para exibir itens em uma página, como textos e botões.

A inteligência artificial gerou o código apropriado, embora tudo o que tinha para seguir adiante eram descrições simples como “texto em vermelho que diz ‘eu te amo’ e um botão com ‘ok’ nele”.

Claramente, ela adquiriu a essência básica de web design, mas após um treinamento surpreendentemente curto.

Uma área em que as IAs há muito tempo impressionam é na de videogames.

Há inúmeros casos na comunidade de inteligência artificial sobre coisas surpreendentes que os algoritmos têm feito em ambientes virtuais.

Os algoritmos costumam ser testados e aperfeiçoados, para ver o quão capazes eles realmente são, em espaços semelhantes aos de videogames.

Em 2019, a OpenAI ganhou as manchetes com um vídeo sobre um jogo de pique-esconde jogado por personagens controlados por machine learning.

Para a surpresa dos pesquisadores, aqueles que estavam “procurando” acabaram aprendendo que podiam pular em cima dos itens e “surfá-los” para ter acesso aos recintos onde havia personagens escondidos. Em outras palavras, aprenderam a burlar as regras do jogo a seu favor.

Uma estratégia de tentativa e erro pode resultar em todos os tipos de comportamentos interessantes. Mas nem sempre levam ao sucesso.

Dois anos atrás, Victoria Krakovna, pesquisadora da DeepMind, pediu aos leitores de seu blog que compartilhassem histórias em que as IAs resolveram problemas complicados — mas de maneiras imprevisivelmente inaceitáveis.

A longa lista de exemplos que ela reuniu é fascinante. Entre eles, está um algoritmo de jogo que aprendeu a se matar no final da primeira fase — para evitar morrer na segunda fase. O objetivo de não morrer na segunda fase foi alcançado, mas não de uma forma particularmente impressionante.

Outro algoritmo descobriu que poderia pular de um penhasco em um jogo e levar um oponente consigo para a morte. Isso deu à IA pontos suficientes para ganhar uma vida extra e continuar repetindo essa tática suicida em um loop infinito.

O pesquisador de inteligência artificial de videogame Julian Togelius, da Escola de Engenharia Tandon da Universidade de Nova York, nos EUA, pode explicar o que está acontecendo.

Ele diz que esses são exemplos clássicos de erros de “alocação de recompensa”. Quando uma inteligência artificial é solicitada a realizar algo, ela pode descobrir métodos estranhos e inesperados de atingir seu objetivo, onde o fim sempre justifica os meios.

Nós, humanos, raramente adotamos tal postura. Os meios e as regras que preveem como devemos jogar são importantes.

Togelius e seus colegas descobriram que esse viés voltado a objetivos pode ser exposto em sistemas de inteligência artificial quando eles são colocados à prova em condições especiais.

Em experimentos recentes, sua equipe descobriu que uma IA solicitada a investir dinheiro em um banco, correria para um canto próximo do saguão do banco virtual e esperaria para receber um retorno sobre o investimento.

Togelius diz que o algoritmo aprendeu a associar correr para o canto com a obtenção de uma recompensa financeira, embora não houvesse nenhuma relação real entre seu movimento e o quanto era pago.

Isso, segundo ele, é mais ou menos como se a inteligência artificial desenvolvesse uma superstição: “Você recebeu uma recompensa ou punição por algo — mas por que você recebeu?”

Essa é uma das armadilhas do “aprendizado por reforço”, em que uma inteligência artificial acaba planejando uma estratégia equivocada com base no que encontra em seu ambiente.

A inteligência artificial não sabe por que teve sucesso, ela só pode basear suas ações em associações aprendidas. Um pouco como as primeiras culturas humanas que começaram a associar rituais a mudanças no clima, por exemplo. Ou os pombos.

Em 1948, um psicólogo americano publicou um artigo descrevendo um experimento incomum em que colocava pombos em gaiolas e os recompensava com comida de forma intermitente.

Os pombos começaram a associar a comida a o que quer que estivessem fazendo na ocasião — seja batendo as asas ou executando movimentos semelhantes a uma dança. Eles então repetiam esses comportamentos, aparentemente na expectativa de que viria uma recompensa a seguir.

Pombos

CRÉDITO,BINNUR EGE GURUN KOCAK/GETTY IMAGES

Os pombos podem aprender a associar a comida a certos comportamentos, e as IAs podem exibir postura semelhante

Há uma grande diferença entre as IAs dos jogos testados por Togelius e os animais vivos usados ​​pelo psicólogo, mas Togelius sugere que o mesmo fenômeno parece estar em ação: a recompensa se torna erroneamente associada a um comportamento particular.

Embora os pesquisadores de inteligência artificial possam se surpreender com os caminhos trilhados pelos sistemas de machine learning, isso não significa necessariamente que tenham admiração por eles.

“Nunca tive a sensação de que esses agentes pensem por si só”, afirma Raia Hadsell, do DeepMind.

Hadsell fez experiências com muitas IAs que encontraram soluções interessantes e inovadoras para problemas não previstos por ela ou seus colegas.

Ela destaca que é exatamente por isso que os pesquisadores procuram aperfeiçoar as IAs em primeiro lugar — para que possam alcançar coisas que os humanos não conseguem por conta própria.

E ela argumenta que os produtos que usam inteligência artificial, como carros autônomos, podem ser rigorosamente testados para garantir que qualquer imprevisibilidade esteja dentro de certos limites aceitáveis.

“Você pode dar garantias razoáveis ​​sobre o comportamento com base em evidências empíricas”, diz ela.

O tempo dirá se todas as empresas que vendem produtos construídos com inteligência artificial são escrupulosas nesse aspecto.

Mas, ao mesmo tempo, é importante observar que as IAs que demonstram comportamentos inesperados não estão de forma alguma confinadas a ambientes de pesquisa. Elas já estão atuando em produtos comerciais.

No ano passado, um braço robótico que trabalhava em uma fábrica em Berlim, desenvolvido pela empresa americana Covariant, apresentou maneiras inesperadas de classificar os itens à medida que eles passavam em uma esteira rolante.

Apesar de não ter sido especialmente programada para isso, a inteligência artificial que controla o braço aprendeu a mirar no centro dos itens em embalagens transparentes para ajudar a garantir que os pegaria com sucesso todas as vezes.

Como esses objetos podem se confundir quando se sobrepõem, devido ao material transparente, mirar com menos precisão significa que o robô pode não conseguir pegar o item.

“Isso evita a sobreposição de objetos nos cantos e, em vez disso, mira na superfície mais fácil de agarrar”, afirma Peter Chen, cofundador e presidente-executivo da Covariant.

“Isso realmente nos surpreendeu.”

Em paralelo, Hadsell diz que sua equipe testou recentemente um braço robótico que passa diferentes blocos por meio de orifícios de formatos variados.

A mão do robô era bastante desajeitada, então a inteligência artificial que o controlava aprendeu que, pegando e soltando repetidamente o bloco, poderia colocá-lo na posição certa para então agarrá-lo e passá-lo facilmente pelo orifício apropriado — em vez de tentar manobrá-lo usando a garra.

Tudo isso ilustra uma questão levantada por Jeff Clune, da OpenAI, que recentemente colaborou com pesquisadores do mundo todo para coletar exemplos de IAs que desenvolveram soluções inteligentes para problemas.

Clune diz que a natureza exploratória da inteligência artificial ​​é fundamental para seu sucesso futuro.

“Conforme estamos ampliando esses sistemas de inteligência artificial, o que estamos vendo é que as coisas que eles fazem de maneira criativa e impressionante não são mais curiosidades acadêmicas”, afirma.

Como as IAs encontram formas melhores de diagnosticar doenças ou entregar suprimentos de emergência, elas até salvam vidas graças à sua capacidade de encontrar novas maneiras de resolver velhos problemas, acrescenta Clune.

Mas ele acredita que aqueles que desenvolvem tais sistemas precisam ser abertos e honestos sobre sua natureza imprevisível, para ajudar a população a entender como a inteligência artificial funciona.

Afinal, é uma faca de dois gumes — a promessa e a ameaça da inteligência artificial fazem parte do mesmo pacote. O que será que elas vão inventar a seguir?

Publicado por BBC Future

17 maio
What Happens When Memes Are Commodities?

Putting a dollar value on the language of the internet will be weird

Zoe Roth, aka Disaster Girl

For over a decade, the image of a young girl smirking in the foreground as a home in the background is engulfed in flames has circulated as fodder for countless memes. The picture, known simply as Disaster Girl, though originally taken by an amateur photographer — who then entered it into an online contest, sparking its journey across the web — has all but officially entered the public domain. That is, until Thursday, at least technically speaking.

The Raleigh News & Observer reports that the then-young girl in the photo, Zoe Roth (now 21), recently sold the image as a Non-Fungible Token, or NFT, for 180 Ether — the cryptocurrency for the Etherium blockchain — worth somewhere in the vicinity of $450,000 at the time (at writing, 180 Ether is valued at approximately $500,000). With the sale, Roth has also assured that she will receive 10% of any sale of the NFT in the future — a kind of digital residual.

Yet, the image, like any digital asset, remains public. If anything, the Disaster Girl memes will likely spread even more with news of the sale. But is the image still the same, now that it’s technically been sold? It’s unclear from the coverage whether the copyright to Disaster Girl was transferred as part of the sale of the NFT, but even if not, there is something fundamental about the image that’s now different.

While memes have been endlessly replicated on consumer products for years (and things like dances have been used to create profits their original creators never see) — that is, memes are commodified — the meme itself, whether an image or an action, has remained transferable at no cost. These have been visual or social commodities, not in and of themselves financial commodities. But what happens when a meme image is made into an NFT, when it is sold to an owner, even if that owner doesn’t retain the copyright?

In practice, there is no difference. For the internet at large, Disaster Girl is the same, being far too popular for far too long to be reined in at this point. Disaster Girl is ours, no matter who owns the NFT. But for meme images yet to emerge, Disaster Girl’s sale raises the possibility that the underlying assumptions about meme images will likely change.

What has made countless meme images interesting, not to mention popular, has been that they are impossible to co-opt into a single use, impossible to be singularly defined by any single individual. Memes remain one of the few lasting products of a chaotic internet, unpredictable and frequently morphing in unexpected and inexplicable ways into distinct, accepted signifiers — the visual language of our online world.

As more meme images invariably become NFTs, even if they still function as they always have, temporally, they will have undergone a metamorphosis from an organic product of the internet into one that is immediately subject to a different kind of co-option — not simply into a slice of internet vernacular, but a piece of a different world altogether, the world of art. They will become part of the world of commerce. This means, in the future, when you share Disaster Girl or any other NFT-linked meme, you’re doing more than contributing to the language of the internet; you’re also affecting its strict monetary value.

It’s language, commodified.

Published by Wired 

07 maio
MCTI inaugura parque que demonstra tecnologias em internet das coisas


O Ministério da Ciência, Tecnologia e Inovações (MCTI) e o Centro Universitário Facens inauguraram hoje (30), em Sorocaba, no interior paulista, o Centro de Referência IoT e Tecnologias 4.0, espaço destinado a demonstrações práticas de tecnologias que fazem uso da chamada internet das coisas (IoT), advento que, graças à quinta geração da internet (5G) possibilitará o uso coordenado e inteligente de aparelhos para controlar diversas atividades.

Ao conectar objetos do cotidiano – como eletrodomésticos, smartphones, roupas e automóveis – à internet (e entre si), essa tecnologia permitirá até mesmo a realização de procedimentos médicos delicados a distância, além de sistemas de direção automática de carros e as mais diversas tecnologias de automação e inteligência artificial, inclusive para a agricultura, a indústria e as cidades.

O centro de referência inaugurado nesta sexta-feira tornará possível a demonstração de soluções em IoT em áreas consideradas prioritárias segundo o Plano Nacional de Internet das Coisas, que abrange ações em frentes como o Cidades 4.0, Saúde 4.0, Agro 4.0, Indústria 4.0, Turismo 4.0 e Educação 4.0.

“A ideia é que o centro ofereça programas para a promoção do ensino, formação, popularização e divulgação da ciência e tecnologia no país, promovendo o ensino inovador, empreendedorismo e desenvolvimento das demandas locais, com o engajamento da indústria, academia e governo”, informa o ministério.

Em nota, o ministro da Ciência, Tecnologia e Inovações, Marcos Pontes, diz que é papel da pasta direcionar o uso da internet das coisas e preparar a população para lidar com as tecnologias do futuro.

Enquanto o avanço das tecnologias vai tornando muitas tarefas mais eficientes e precisas, é preciso lembrar que é necessário criar empregos alinhados a esse progresso para as pessoas, afirma Pontes. “Nós não podemos parar a tecnologia para manter os postos de trabalho, mas podemos preparar e requalificar os profissionais, assim como formar as novas gerações já adaptadas para esse novo cenário.”

Segundo o MCTI, o centro de referência de Sorocaba estará integrado ao Smart Campus Facens – laboratório voltado para a solução de “problemas reais, conectando a comunidade acadêmica, mercado, empresas e sociedade, por meio de projetos que tornem as cidades mais humanas, inteligentes e sustentáveis”.

 

Publicado por UOL

16 abr
Entenda o que é IoT na indústria 4.0 e porque isso é uma aposta que vai revolucionar o mercado industrial

Veja também exemplos de como esse conceito já está atuando em alguns mercados

 

Imagine conectar diversos dispositivos, através da internet, que podem trocar informações entre si? Essa é a ideia por trás da Internet das Coisas (IoT). Aplicado à indústria, a conexão entre esses diversos dispositivos é a IoT na indústria 4.0.

Indústria 4.0 é conhecida como a Quarta Revolução Industrial, caracterizada pela introdução da tecnologia da informação na indústria. Essa é a nova tendência que está sendo adotada pelas grandes corporações para sair na frente em seu mercado.

Para entender essa ideia de IoT na indústria 4.0, vamos fazer uma analogia com o funcionamento do cérebro humano. Em 1926, Nikola Tesla, inventor nos campos de engenharia mecânica e eletrotécnica, disse:

 

“Quando a tecnologia sem fio for perfeitamente aplicável, a Terra inteira será convertida em um imenso cérebro, o que de fato é, com todas as coisas sendo partículas de um todo real e rítmico”

 

Sendo assim, essa analogia ao nosso cérebro permite compreender melhor a ideia de IoT como uma rede conectada. Essa rede por si só possui imensas quantidades de conexões entre as células, compondo a rede do nosso sistema nervoso.

Portanto, assim como células diferentes possuem finalidades diferentes, os produtos conectados possuem diferentes funções e aplicabilidades, porém estão unidos sob a mesma rede.

As conexões geradas pela IoT

Essa conexão que a IoT na indústria 4.0 fornece, gera oportunidades inéditas, criando um grande círculo de valor agregado aos produtos e serviços que dela se utilizam. Entenda melhor como isso pode funcionar na prática, a partir da sequência de fatores a seguir:

  • A chuva influencia a produção de matéria-prima
  • O valor do produto final sofre alterações no mercado mundial
  • A quantidade de produtos derivados estocados impacta a economia nacional
  • Ocorre uma repentina elevação da demanda, cujo fornecimento de insumos não consegue suprir.
  • Em vez da produção ser intensificada, será interrompida para uma parada programada de manutenção.

Sendo assim, imagine um monitoramento integrado de todos esses acontecimentos, gerando dados que se comunicam em tempo real por meio do que pode-se considerar uma grande base de dados unificada.

A partir desse banco de dados, seriam tomadas decisões automáticas através da comunicação online entre os dispositivos interconectados responsáveis por monitorar esses eventos.

Com base nas decisões tomadas por meio da visão global de todos esses fatores, o processo produtivo se torna mais eficiente, reduzindo os impactos negativos e maximizando a cadeia de valor de determinado setor industrial.

Então, essa integração não só interna como externa à indústria, é a base da IoT na indústria 4.0. A nível mundial, a Accenture realizou um estudo para ter uma projeção do impacto na economia com a internet industrial das coisas (IIoT) nos próximos anos.

Diante disso, as previsões mais otimistas apresentam que o valor gerado pelo investimento em IIoT chegará a US $ 15 trilhões do PIB global até 2030. Esse estudo pode ser consultado através deste link.

Depois desse panorama mundial, vamos aprofundar mais nos assuntos. Aqui nesse artigo sobre IoT na indústria 4.0, você pode entender melhor sobre:

  • O que é a indústria 4.0
  • O que é IoT
  • Como a IoT na indústria 4.0 pode revolucionar a indústria
  • Benefícios da IoT na indústria 4.0

 

Afinal, o que é a indústria 4.0?

IoT na industria 4.0

O surgimento da indústria 4.0 veio por meio dos alemães que queriam elevar sua competitividade com a manufatura asiática. Por isso, definiram uma estratégia de governo para aumentar a produtividade da indústria através da inovação.

Segundo a chanceler da Alemanha, Angela Merkel:

 

“A indústria 4.0 é a transformação completa de toda a esfera da produção industrial através da fusão da tecnologia digital e da internet com a indústria convencional.”

 

Apesar da disseminação do conceito mundialmente, ele ainda não é uma realidade. Essa é a primeira vez que uma revolução industrial é anunciada antes de acontecer. Todos os acontecimentos estão sendo previstos como tendências.

Dessa forma, a Quarta Revolução Industrial está sendo motivada por três grandes mudanças no mundo industrial produtivo. São elas:

  • Avanço exponencial da capacidade dos computadores;
  • Imensa quantidade de informação digitalizada;
  • Novas estratégias de inovação (pessoas, pesquisa e tecnologia).

Essas mudanças permitem que tudo dentro e ao redor de uma planta operacional (fornecedores, distribuidores, unidades fabris, e até o produto) sejam conectados digitalmente, proporcionando uma cadeia de valor altamente integrada.

 

Em meio a tudo isso, o que significa a Internet das Coisas (IoT)?

A IoT na indústria 4.0 é basicamente a responsável pela integração de todos os dispositivos dentro e externo à planta. A IoT é o conceito que representa a conexão.

 

“A Internet das Coisas é uma rede de objetos físicos, sistemas, plataformas e aplicativos com tecnologia embarcada para comunicar, sentir ou interagir com ambientes internos e externos.”  

 

Quando se diz que a internet está na indústria, no chão de fábrica, devemos relacionar isso a um ambiente onde todos os equipamentos e máquinas estão conectadas em redes e disponibilizando informações de forma única.

Desse modo, especificamente quando falamos do universo da Internet das Coisas na indústria, nos referimos a Industrial Internet of Things (IIoT). Conheça o nosso artigo sobre IIoT para se aprofundar no assunto e entender como esse conceito está funcionando atualmente.

Para deixar mais claro, vamos ressaltar a diferença entre IoT e IIoT. IoT é o conceito mais abrangente que surge como a ideia de conectar qualquer dispositivo que gere informações e possa se conectar a um serviço de cloud em qualquer segmento.

Em contrapartida, a IIoT é a conexão de diferentes dispositivos relacionados à cadeia produtiva, conectando essas informações via cloud. Por exemplo, permitindo o processo produtivo conectar-se diretamente a um fornecedor de produto em tempo real na linha de produção.

 

Como a IoT na indústria 4.0 está revolucionando a indústria?

Agora que já entendemos os conceitos, vamos apresentar exemplos do que já está sendo feito atualmente. A IoT na indústria 4.0 já está presente em diferentes segmentos e atuando de diferentes maneiras.

 

1) Otimizando a manutenção na energia eólica

IoT na indústria 4.0

Schaeffler e a IBM vão utilizar turbinas eólicas para explorar como Machine Learning pode revelar insights valiosos sobre a performance de equipamentos em diferentes condições de operação.

Assim, sensores nos equipamentos informam as condições dos componentes da turbina em tempo real. Dessa forma, através da previsão do vento pela IBM, os operadores de turbina estão aptos para planejar com antecedência e repor peças durante períodos menos ventosos.

 

2) Aumentando a eficiência operacional de plantas industriais com gerenciamento de alarmes e eventos

IoT na industria 4.0

É muito comum indústrias possuírem milhares de eventos disparados pelo sistema de automação da planta. Sejam informações de alarmes, intervenções, mudança de estados, tudo fica registrado como eventos.

A quantidade é tão grande que se torna impossível realizar a análise desses dados sem ser por softwares especializados

Assim, visando amenizar esse problema, existe a prática de gerenciamento de alarmes e eventos. Um software de gerenciamento conecta-se ao sistema de controle e consegue extrair todas as informações dos milhares de dados gerados diariamente.

Essa grande quantidade de dados brutos são minerados e transformados em insights valiosos sobre as condições da planta industrial. Esse processo é denominado business intelligence.

Ainda assim, existe uma lacuna muito grande de sistemas que de fato conseguem minerar esses dados em tempo real gerando informações relevantes que facilitem o processo de tomada de decisão seja de maneira manual ou automática.

A maioria das indústrias sequer realiza a análise desses dados de maneira proativa, servindo apenas para registros para caso de necessidade de avaliação como, em análise de incidentes.

Por fim, o gerenciamento de alarmes e eventos facilita o trabalho do operador que consegue controlar a planta com maior precisão, aumentando a produtividade e diminuindo as perdas.

 

3) Veículos Conectados

IoT na industria 4.0

A IoT na indústria 4.0 também permite que a Schaeffler amplie a funcionalidade e a vida útil de componentes da indústria automotiva. Eles conseguiram encontrar um modelo de negócio híbrido a partir desta ideia.

Desse modo, análises e sistemas sensoriais em tempo real podem transformar dados brutos em insights valiosos que podem ser utilizados pelos fabricantes para aumentar a confiabilidade dos carros e oferecer um novo serviço de valor agregado aos clientes.

Dessa forma, eles conseguem ampliar a qualidade para além da porta da fábrica. Pois, fornece em tempo real aos clientes as condições dos seus respectivos carros.

 

Quais os benefícios da IoT na indústria 4.0?

Compreendido como funciona na prática, quais os benefícios que tudo isso oferece? A utilização de IoT e IIoT, trazem benefícios para as plantas industriais nos seguintes aspectos:

 

1- Eficiência operacional e maximização dos lucros

A eficiência operacional é o mais falado atualmente, e os primeiros adeptos estão focados nesses benefícios.

Ao introduzir automação, conectividade e técnicas de produção mais flexíveis, por exemplo, os fabricantes podem aumentar sua produtividade em até 30%. Esse dado também foi disponibilizado pelo estudo realizado pela Accenture.

Além disso, a escalabilidade, economia de tempo e de custos, auxilia na maximização dos lucros de organizações industriais.

Os aspectos que aumentam a eficiência operacional da planta são:

  • Redução de paradas na produção;
  • Melhoria do uso do ativo;
  • Redução no custo do ciclo do ativo;
  • Melhoria da produção;

 

2- Novos serviços e modelos de negócios

A IoT na indústria 4.0 permite que sejam criados novas fontes de receitas pela criação de novos serviços conectados. Os modelos de negócio híbridos, permitem que sejam aproveitados tantos os produtos quanto serviços digitais.

Sob o mesmo ponto de vista, o modelo de negócio híbrido são negócios que oferecem tanto produtos quanto um serviço relacionado à esse produto.

No exemplo anterior dos veículos conectados, a Schaeffler aproveitou os dados brutos obtidos para fornecer o serviço de condição dos carros em tempo real como fonte para manutenções preventivas.

A utilização de serviços digitais ainda melhora o relacionamento com o cliente. Pois, a entrega do produto possibilita diferentes pontos de contatos que geram informações valiosas para o cliente. É criada uma relação de confiança e lealdade.

 

3- Maior conhecimento para tomadas de decisões

A análise dos dados industriais permite que os executivos tenham maior quantidade de informação. Isso facilita para tomarem melhores decisões em virtude de ter uma visão mais precisa do desempenho da indústria.

Para completar, a rede da IIoT de dispositivos inteligentes permite que as organizações industriais conectem todas as suas pessoas, dados e processos do chão de fábrica até os executivos. Auxiliando ainda mais na produtividade dos líderes e nas tomadas de decisão.

É importante ressaltar que mais do que facilitar as tomadas de decisão, a indústria 4.0 quer ir além. Ela visa promover que boa parte dessas decisões sejam tomadas de maneira automática por técnicas inteligentes.

 

Conclusão

A melhor maneira de inovar em um setor industrial é quando você consegue identificar uma tendência de comportamento e se antecipa para aplicar uma nova ideia na sua indústria.

O mercado já está nos mostrando que o mundo caminha para a Quarta Revolução Industrial. Isso representa a introdução da tecnologia da informação nas indústrias.

Portanto, para as empresas que buscam sair na frente dentro do seu mercado e inovar, apostar na internet das coisas e IoT na indústria 4.0 pode ser um ótimo caminho.

Por fim, existe ainda um potencial escondido para um alto crescimento das indústrias, esse potencial é a utilização dos dados. Um bom uso desses dados permite aumentar a eficiência operacional, tomar melhores decisões e até criar novos modelos de negócio.

08 abr
Como aprender a programar pode mudar sua vida

Para Hannah Blair, enveredar-se pelo ramo da tecnologia foi complicado.

Ela frequentava uma escola para meninas que não oferecia o curso de informática e programação que queria, embora a escola para meninos oferecesse a disciplina.

“A escola de meninas tinha ciência da computação, enquanto a escola de meninos tinha um curso de informática de verdade, apesar de as duas estarem sob o mesmo teto, então mudei para a escola de meninos para fazer isso”, diz Hannah.

Sua determinação valeu a pena e ela se formou em Ciência da Computação pela Universidade de Surrey (Inglaterra) em 2018.

A jovem conseguiu uma vaga no programa de pós-graduação do banco alemão Deutsche Bank e desde então tem trabalhado com startups como desenvolvedora independente. Atualmente, atua como desenvolvedora sênior na plataforma de eventos virtuais Hopin.

Demorou 14 meses para Carl Mungazi conseguir seu primeiro emprego, pois ele enfrentou um problema comum a muitos candidatos.

“Um dos entrevistadores me disse que tinha uma proposta, mas queriam que eu ganhasse mais experiência.”

Em última análise, seja qual for o caminho que você tomar nesse setor, você deve demonstrar um claro interesse e paixão pela programação.

“É um processo muito desafiador que realmente aumentará sua resistência mental, mas se você for capaz de seguir em frente, isso mudará seriamente sua vida”, conclui Thornton.

Foi uma escolha de carreira inteligente, já que o desenvolvimento de software é um setor com muitas oportunidades.

Por exemplo, o Bureau of Labor Statistics (BLS), o Departamento de Estatísticas do Trabalho dos Estados Unidos, prevê uma taxa de crescimento de empregos de 22 % para esses desenvolvedores entre 2019 e 2029, em comparação com 4% para outras ocupações.

E os salários são bons. De acordo com o site de comparação de salários PayScale, o salário médio de um desenvolvedor é de cerca de US$ 80 mil (cerca de R$ 450 mil) por ano.

Mudança de carreira

Carl Mungazi

Carl Mungazi estudou jornalismo e trabalhou como repórter em Luton, na Inglaterra, por quatro anos, antes de se tornar desenvolvedor em 2016.

Sua vontade de enveredar-se pela profissão resultou de seu desejo de construir um agregador de notícias local, algo que já tinha visto em publicações nacionais.

“Basicamente, queria encontrar uma maneira de rastrear as notícias publicadas em Luton”, diz Mungazi.

Um amigo desenvolvedor o ajudou a construir o “back-end”, a tecnologia necessária para alcançar seu objetivo, e Mungazi aprendeu a usar Javascript, uma linguagem de programação para construir sites.

A escolha de qual linguagem de computador realmente aprender depende do que você deseja fazer.

Python é uma poderosa linguagem de propósito geral e muitas vezes é a primeira ensinada a estudantes universitários em cursos de informática.

É amplamente utilizada nos negócios — o YouTube, por exemplo, é amplamente escrito em Python.

Ruby é outra linguagem versátil, popular entre startups.

Os “bootcamps”

Independentemente da linguagem que um programador novato escolha, existem vastos recursos online para ajudar os autodidatas. Em seu caso, Mungazi diz que o site freecodecamp.org foi particularmente útil para ele.

Outra opção popular é frequentar um bootcamp (centro de treinamento), de grande ajuda para quem muda de carreira. Muitos deles surgiram nos últimos anos, oferecendo cursos intensivos destinados a ensinar os participantes as habilidades necessárias para conseguir o primeiro emprego nesse setor.

Brenden Thornton

Brenden Thornton escolheu esse caminho, inscrevendo-se em um curso oferecido pela Flatiron School, quando optou por deixar de ser cinegrafista da NBA (liga de basquete profissional) nos Estados Unidos.

“Uma grande vantagem de ir para um bootcamp é ter um currículo customizado para você. Não tive que fazer conjecturas ao decidir quais tecnologias aprender e como eu as aprenderia sozinho”, conta.

O suporte que vem com a participação nesses bootcamps também foi fundamental para sua decisão.

“Eles realmente dedicam tempo para formar uma equipe de suporte ao seu redor, não apenas por meio de oportunidades de emprego, mas também por meio de consultores de carreira que o ajudam a navegar no processo de procura de emprego.”

Uma desvantagem dos bootcamps é que eles podem ser demorados e proibitivamente caros para muitos. Muitos cursos ultrapassam US$ 10 mil (R$ 57 mil).

Uma bolsa parcial ajudou a aliviar parte dos encargos financeiros de Thornton, mas ele ainda tinha uma agenda cansativa.

Sua rotina de segunda a sexta consistia em acordar às 5 da manhã para trabalhar no Uber e no Lyft até as 9h. Então, estudava até as 16h e depois voltava a trabalhar nos apps de carona até as 21h.

Habilidades

Independentemente do caminho que você decidir seguir na programação, é essencial garantir que as chamadas soft skills (ou habilidades comportamentais) não sejam negligenciadas.

Curso da Flatiron School

Em cursos presenciais, habilidades além de programação e ciência da computação são aprendidas

“As habilidades que os empregadores procuram muitas vezes são mais do que técnicas”, de acordo com Barry Cranford, CEO da empresa de recrutamento RecWorks.

“A principal coisa que realmente faz a diferença é se você pode colocá-las em prática como parte de uma equipe.”

Ter um perfil público para destacar seu trabalho também pode ajudar na hora de se candidatar a empregos.

A plataforma online Github é particularmente popular entre os empregadores. “É como um portfólio de fotografias, você pode mergulhar nele e ver o que as pessoas fizeram”, diz Barry Cranford.

Encontrar um mentor que o apoia é outro elemento que pode lhe dar um impulso, diz ele, e pode ser uma “arma secreta” para sua carreira.

Redes profissionais

Tal como acontece com muitos setores, o networking (redes de contatos profissionais) também pode ajudar a construir esses primeiros contatos cruciais.

“Participar de qualquer reunião pode aumentar muito suas chances de conseguir um emprego”, diz Thornton.

No entanto, os desafios de conseguir o primeiro emprego não devem ser subestimados, especialmente para quem está mudando de carreira.

Hannah Blair

Hannah Blair teve que se transferir para uma escola só para meninos para estudar computadores

Demorou 14 meses para Carl Mungazi conseguir seu primeiro emprego, pois ele enfrentou um problema comum a muitos candidatos.

“Um dos entrevistadores me disse que tinha uma proposta, mas queriam que eu ganhasse mais experiência.”

Em última análise, seja qual for o caminho que você tomar nesse setor, você deve demonstrar um claro interesse e paixão pela programação.

“É um processo muito desafiador que realmente aumentará sua resistência mental, mas se você for capaz de seguir em frente, isso mudará seriamente sua vida”, conclui Thornton.

Publicado por BBC

01 abr
Facebook treinará Inteligência Artificial para entender vídeos postados

O Facebook anunciou que está empenhado em um novo projeto que treinará algoritmos de inteligência artificial (IA) para compreender áudios, textos e representações visuais em vídeos compartilhados por usuários no próprio Facebook e também no Instagram.

“Ao aprender com vídeos que abrangem quase todos os países e centenas de idiomas, este projeto não apenas nos ajudará a melhorar continuamente nossos principais sistemas de IA para recomendação de conteúdo e aplicação de políticas, mas permitirá experiências totalmente novas”, afirmou a empresa por meio de um comunicado em seu blog.

A iniciativa, chamada Learning from Videos (Aprendendo com Vídeos, em tradução livre), faz parte dos esforços do Facebook em desenvolver máquinas que “aprendem como os humanos” por meio de exemplos.

O objetivo da empresa é utilizar o aprendizado dos algoritmos de IA para criar novas formas de recomendação de conteúdo, criação automática de legenda nos vídeos e ferramentas de moderação. Segundo o Facebook, a tecnologia poderá ajudar na identificação de discursos de ódio compartilhados na rede.

No entanto, o aprendizado de máquina aplicado aos vídeos poderá ser ainda mais útil para a empresa no futuro. Com a tecnologia, o Facebook poderá utilizar a Inteligência Artificial para aprender ainda mais sobre seus usuários, analisando hobbies, interesses, preferências, entre diversas informações.

” alt=”” aria-hidden=”true” />
O aprendizado dos algoritmos de Inteligência Artificial do Facebook poderão ser utilizados no futuro em óculos de Realidade Aumentada. Créditos: Facebook

Óculos de realidade aumentada

Entre os objetivos do Facebook para este ano está o lançamento de um óculos inteligente com realidade aumentada (RA). Ainda não há muitas informações disponíveis sobre o gadget, mas é possível que eles incluam (agora ou em versões futuras) câmeras para fazer capturas da perspectiva do usuário.

Com os sistemas de Inteligência Artificial do Facebook treinados para compreender vídeo, as pessoas poderão pesquisar gravações anteriores. A empresa cita como exemplo um usuário fazendo uma busca com a frase “Mostre-me sempre que cantamos parabéns à vovó” e, como resultado, recendo vídeos relacionados às palavras chaves.

“À medida que isso [uso de óculos e outros wearables com RA] se torna a norma, as pessoas poderão relembrar momentos específicos de seu vasto banco de memórias digitais com a mesma facilidade com que os capturam. Será valioso construir sistemas de IA mais inteligentes que possam entender o que está acontecendo nos vídeos em um nível mais granular”, diz o comunicado.

 Publicado por Olhar Digital 

15 mar
Muito além da GameStop: saiba onde investir no mercado de jogos

O segmento que deve gerar US$ 180 bilhões em 2021, segundo dados da consultoria NewZoo, está se afastando cada vez mais das mídias físicas

A escalada de preços das ações da varejista GameStop em Wall Street pouco tem a ver com o crescimento do mercado de jogos. Na verdade, o segmento deve gerar US$ 180 bilhões em 2021, segundo dados da consultoria NewZoo, e está se afastando cada vez mais das mídias físicas.

Um relatório assinado por Breno Bonani, analista de investimentos da Avenue Securities, mostra que o setor, que já vale mais que as indústrias de cinema e música juntas, terá avenidas de crescimento cada vez mais “digitais”. Não só no desenvolvimento dos jogos em si, mas em toda a cadeia de distribuição.

Antes de listar estes caminhos e os papéis que podem se beneficiar com isso, no entanto, vale contextualizar o momento da indústria. 2020 foi um ano duplamente positivo para os games, a começar pela pandemia do novo coronavírus. Com mais pessoas ficando em casa, a procura por entretenimento decolou.

Coincidentemente, o aumento da demanda veio no ano de lançamento de uma nova geração de consoles. Sony e Microsoft, que batalham arduamente por cada ponto percentual deste mercado, disponibilizaram ao público em novembro o PlayStation 5 e o Xbox Series X, respectivamente.

Resultado: os dois produtos sumiram das prateleiras logo após o lançamento e até o momento a demanda supera a oferta. Até o Switch, da japonesa Nintendo, que foi lançado em 2017, se aproxima da marca de 70 milhões de consoles vendidos — recorde de venda.

Isso sem falar dos jogos em si e dos periféricos (teclado, fone, mouse). Nessa linha, confira três possíveis motores de crescimento do setor, que pode gerar US$ 200 bilhões em 2023, segundo a NewZoo. Confira.

Game Pass

Os gamers têm se afastado das mídias físicas. Tirando os saudosistas e colecionadores que preferem ter a caixinha de cada jogo, os games atuais costumam ser baixados no próprio console. Mais do que isso, o mercado parece estar caminhando, assim como no cinema e na música, para um esquema de assinatura.

“A digitalização reduz muito os custos das companhias com produção, com plástico”, diz Bonani, da Avenue. “Ao mesmo tempo, é mais fácil alcançar um número maior de pessoas através de plataformas online, por isso acreditamos que essas assinaturas devem crescer muito nos próximos anos.”

Neste segmento, o produto mais avançado é o Xbox Game Pass, da Microsoft, que já possui quase 20 milhões de usuários. Por R$ 30 mensais, a plataforma dá acesso a mais de 100 jogos no console ou no computador. Para ter acesso às duas opções, o assinante desembolsa R$ 45.

Já o Google criou o Stadia, enquanto a Apple criou o Arcade para brigar neste mesmo mercado. As próprias desenvolvedoras também estão entrando na parada, como a Epic que criou uma assinatura para jogadores ávidos de Fortnite.

Mobile

Outro ponto importantíssimo no mercado de games é o crescimento da fatia do mobile — que nada mais é do que jogos no celular. Os jovens aderiram aos games no smartphone seja por não terem acesso a um console ou computador de qualidade, seja pela qualidade dos produtos ali disponíveis.

A receita, nesse caso, vem de microtransações. É que os jogos para celular costumam ser gratuitos para baixar e jogar, mas boa parte dos títulos permite que o usuário compre itens cosméticos (para mudar a aparência do jogo) ou que auxiliam de alguma forma a performance do gamer.

Para se ter ideia da magnitude das cifras, a expectativa é que em 2021 os jogos para mobile ultrapassem US$ 120 bilhões em receita, o que representa mais de 60% do faturamento total do setor de games.

Bonani explica que as empresas podem avançar ainda mais conforme promovam um intercâmbio entre plataformas. O objetivo final é que o mesmo título possa ser jogado no computador, no celular e no console, com usuários dos três modais interagindo dentro dos servidores.

“O jogo Genshin Impact, lançado pela chinesa miHoYo em setembro de 2020, quebrou essa barreira”, afirma. “Ele já nasceu disponível em todas as plataformas, modelo que deve ser consagrado devido ao conforto que propicia. Já vemos outros grandes títulos, como PUBG e Call of Duty, aderindo ao mobile.”

Mercado asiático

O governo chinês passou a exigir uma licença formal, chamada de ISBN, para que as desenvolvedoras possam vender seus títulos nas lojas de aplicativos.

“A legislação matou os estúdios menores e obrigou os grandes a apontar para lançamentos globais, não somente jogos rápidos de qualidade inferior. Isso fez com que cerca de 20% dos 100 títulos de maior bilheteria dos EUA em 2020 fossem da China, número que deve continuar crescendo.”

Além de dificultar a vida dos estúdios pequenos, a ISBN atrasa a liberação de jogos no mercado chinês, que é o maior do mundo.

Empresas para investir

A lista elaborada pelo analista é focada em produtos disponíveis em Wall Street, mas também é possível investir em alguns dos papéis no Brasil, por meio de BDRs.

Estúdios americanos

Take-Two (TTWO; BDR T1TW34), Activision (ATVI; BDR ATVI34), EA (EA) e Zynga (ZNGA). Os três primeiros são os três maiores players do setor, desenvolvedores de GTA, Call of Duty e Fifa, respectivamente. Já o Zynga vem avançando no segmento mobile e tem no Farmville um dos seus jogos de maior sucesso.

Estúdios asiáticos

Gravity (GRVY), Sea (SE), Bilibili (BILI). As campeãs de valorização em 2020, avançando 417%, 380% e 408% no ano, respectivamente. Têm crescido por saber aproveitar o mercado mobilie e crescer em regiões populosas do mundo, como o Sudeste Asiático e a América Latina. O Free Fire, jogo mais jogado no Brasil, é da Sea.

Desenvolvedoras de placas gráficas

NVIDIA (NVDA; BDR NVDC34), AMD (AMD). O analista enxerga essas duas empresas com maior upside no setor de placas gráficas, vital para o mercado gamer. Para Bonani, a Intel tem tido problemas para acompanhar os avanços das concorrentes, apesar de ainda ser líder em market share.

Motor de jogos

Unity (U). Com IPO recente, a companhia é uma opção de investimento no nicho de motor de jogos, ou seja, empresas que criam plataformas para que outras companhias desenvolvam games dentro desse universo.

26 fev
Reconhecimento internacional! Artigo do professor Luciano será publicado no maior evento internacional de Engenharia de Software do mundo

E dá-lhe professor fazendo bonito internacionalmente! Luciano Aguiar teve seu artigo aprovado na maior conferência internacional de Engenharia de Software do mundo, a “43rd International Conference on Software Engineering”! A 43º Edição do evento será realizada em Madri e possui o Qualis A1, que é a maior nota dada a um congresso pelo sistema de avaliação brasileiro.

 

O prof. Luciano, do nosso curso de Engenharia de Software, está no doutorado. Por isso, submeter sua pesquisa nesses congressos é importante para receber avaliações e orientações de grandes pesquisadores internacionais.

 

O evento internacional possui várias trilhas, o artigo do prof. Luciano será publicado no Simpósio Doutoral, no qual os alunos de Doutorado submetem o seu Plano de Tese, o Plano de Tese é o Planejamento de como ocorrerá toda a pesquisa durante o doutorado.

 

“A proposal to systematize introducing DevOps into the software development process”

 

O artigo, “Uma proposta de Sistemização da Introdução do DevOps no processo de desenvolvimento de software”, aborda sobre como a indústria de desenvolvimento de software vem evoluindo com novos padrões de desenvolvimento e modelos de disponibilização de serviços.

 

Metodologias ágeis atingiram sua completude com DevOps, aumentando a qualidade do software e criando uma celeridade maior na entrega. Todavia, uma lacuna quanto à formalização de sua adoção e dúvidas de implantação tornaram-se relevantes.

 

A hipótese levantada no artigo é que a partir da sistematização da introdução do DevOps no processo de desenvolvimento de software e delimitação da função dos membros da equipe DevOps, torne o processo mais célere na sua implantação, reduzindo conflitos entre as equipes.

 

Como parte da investigação dessa hipótese, será aplicado o resultado da pesquisa em ambientes de desenvolvimento prático que será em uma Agência de Tecnologia do Estado do Governo Brasileiro e na Empresa também Brasileira Neurotech a fim de avaliar sua eficácia a partir de métricas adequadas para ambientes DevOps.

 

Veja mais em  https://conf.researchr.org/profile/icse-2021/lucianoaguiarmonteiro

 

 

 

 

 

 

 

 

 

19 fev
Os novos, e muito bem remunerados, cargos em Tecnologia em 2021

Ao longo de 2021 as empresas irão investir ainda mais em dois segmentos da área de Tecnologia: Dados e Desenvolvimento de Softwares.

A principal razão para isso é a procura das companhias por se tornarem cada vez mais “Data Driven”, ou seja, à partir de dados sobre o comportamento de seus clientes ou potenciais clientes, possam ser capazes de tomar as melhores decisões de negócio e, assim, obter uma vantagem competitiva frente aos seus competidores.

Funções que há poucos anos não existiam hoje são muito valorizadas. Por exemplo, a média mensal de um profissional Sênior da área de Dados está entre R$13.000 e R$17.000.

Como destaque, é possível citar o Engenheiro de Dados, um o profissional responsável pela organização e criação de pipelines de transformação de dados. E o Cientista de Dados o profissional que fica responsável pela análise, produção de insights e construção de Dashboards para a tomada de decisões.

Como a área de Dados ainda é uma área relativamente nova em grande parte das empresas é esperado que surjam novos cargos como, por exemplo, o Engenheiro de Machine Learning.

Este profissional possui um perfil bastante técnico de engenheiro de software mas com conhecimento especializado de Machine Learning.  É uma função que está na intersecção entre a engenharia de software e a ciência de dados e é responsável por desenvolver e aplicar modelos para o “aprendizado das máquinas” e assim automatizar diversos processos importantes. A robotização de processos e funções que se tornará cada vez mais comuns no nosso dia a dia.

Como efeito do fenômeno de “oferta X demanda” a busca por esse profissional vem aumentando e não há ainda uma grande oferta de profissionais com esta especialização. Por isso os salários tenderão a ficar bastante inflacionados.

A área de Desenvolvimento de Software vem crescendo há alguns anos e os salários vem acompanhando este movimento. A média mensal de um Desenvolvedor Sênior é entre R$12.000 e R$14.000 CLT, dependendo do nível de experiência.

Os cargos que continuarão em alta demanda são:

  • Desenvolvedor Back End Java,
  • C#
  • Python
  • Desenvolvedor Front End (Angular e React)
  • DevOps

‘’Mas há também a perspectiva de surgirem novas demandas por linguagens de programação mais voltadas a Dados (como R e Python) e também linguagens mais novas como Golang (linguagem de programação criada pelo Google). Assim, independentemente do cenário econômico geral, as novas aplicações, tecnologias e modelos de negócio continuarão a impulsionar o surgimento de novas funções altamente especializadas e muito bem remuneradas na área de Tecnologia.’’ Comenta e finaliza Tatiana Chebat, consultora Sênior de Tecnologia da Robert Walters.

Publicado por Penso Tecnologia 

29 dez
Deepfake de vozes brasileiras

Em meio ao medo relacionado às deepfakes, pesquisadores brasileiros reproduzem vozes em português e defendem que há um caminho positivo para essa tecnologia

“Minha terra tem palmeiras onde canta o sabiá”, diz o presidente Jair Bolsonaro. “As aves que aqui gorjeiam não gorjeiam como lá”, responde o ex-presidente Lula. O diálogo, que até onde Gama saiba jamais ocorreu, é passível de reprodução no site do Mr. Falante.

 Realizado pela UFG (Universidade Federal de Goiás) em parceria com a CyberLabs, empresa que trabalha com Inteligência Artificial (IA), o projeto é um dos pioneiros na produção e sintetização de voz no Brasil.
 Na página de divulgação do projeto é possível ouvir os ex-presidentes Lula e Dilma, assim como o atual presidente Jair Bolsonaro recitando poemas clássicos da literatura de língua portuguesa. A fidelidade às vozes das personalidades políticas assustam.
 Horas e mais horas de materiais são copiados, levando em conta as variações de fonemas dos idiomas, de pronúncias e de diversos fatores que afetam a fala
 De acordo com Frederico Oliveira, doutorando em ciência da computação pela Universidade Federal de Goiás (UFG) e um dos responsáveis pelo projeto Mr. Falante, 30 minutos de uma voz é tudo o que é necessário para os modelos de deepfakes mais avançados clonarem a fala de alguém.
 Montagens e edições não são coisas novas, mas as deepfake apresentam uma grande vantagem: a automação. O processo é chamado de deep learning, tecnologia que busca imitar o funcionamento de uma rede neural humana.
 O primeiro passo é a construção de banco de dados extenso com a voz que será clonada. “Quanto mais variado o banco de dados, melhor o resultado”, afirma Oliveira.
Em seguida, o modelo recebe o texto transcrito do áudio que será usado para treinamento do modelo. Esse texto é convertido em um áudio e o resultado inicial é quase sempre precário.
“Nós pegamos esse primeiro resultado e comparamos com o áudio original. Então apontamos as diferenças e pedimos para o modelo repetir o processo, corrigindo as imperfeições. O modelo erra menos a cada repetição, chegando a um nível de qualidade satisfatório após um bom tempo”, explica o cientista.
 Horas e mais horas de materiais são copiados pelo modelo, que leva em conta as variações de fonemas dos idiomas, de pronúncias e de diversos outros fatores que afetam a fala de alguém.

O projeto, que começou há mais de um ano, passará a ser comercializado nos próximos meses. Luísa Moncorvo, engenheira de IA e responsável pelos projetos de voz na CyberLabs, afirma que o intuito da empresa é levar a Inteligência Artifical para o dia a dia das pessoas.

 Além do Mr. Falante, a CyberLabs também trabalha com o Speech To Text — onde a voz é transcrita em texto — e com a biometria da voz. Tanto Oliveira quanto Moncorvo acreditam que estamos há poucos anos de ver todas essas tecnologias se popularizando ao redor do mundo.
Guilherme Falcão / Getty Images

Quem tá falando?

 George W. Bush recitando 50 Cent. Um dueto de “Barbie Girl” entre os pensadores Slavoj Žižek e Ayn Rand. Donald Trump interpretando falas de Star Wars. É possível conferir essas e diversas outras paródias em áudio no canal do YouTube “Vocal Synthesis“.
 Mesmo contando com mais de 70 mil inscritos, existe uma pessoa que não é lá muito fã do canal: o rapper Jay-Z. No começo do ano, o músico e sua agência e gravadora Roc Nation LLC notificaram o YouTube e o canal Vocal Synthesis, exigindo a remoção dos vídeos com deepfakes da voz de Jay-Z.
 A remoção levantou debates na internet, que discutiam como e se a lei de direitos autorais americana poderia ser utilizada nesse caso. O YouTube chegou a remover os vídeos de sua plataforma, mas voltou atrás informando que não havia informações o suficiente para o pedido ser acatado. Os vídeos ainda estão no ar.
 Há um conceito na legislação americana — o fair use –, que permite a utilização de produções protegidas por direitos autorais, desde que entrem na categoria de educação, crítica, sátira, paródia, comentário, jornalismo ou pesquisa. O criador do canal argumenta que a deepfake de Jay-Z se enquadra no conceito de fair use.
 É comum que, quando uma nova tecnologia surja, a legislação não esteja 100% pronta para lidar com seus desdobramentos. A medida que mais casos vão surgindo, fica claro a necessidade de leis específicas para o problema.
 No Brasil, a LGPD (Lei Geral de Proteção de Dados Pessoais) ainda carece de legislação específica que trate das deepfakes. Moncorvo afirma que a preocupação com o mau uso da tecnologia é central no desenvolvimento dos projetos e que a CyberLabs não fornece a clonagem de voz sem a permissão da pessoa que terá a voz clonada.
A escolha por figuras políticas recitando poesias também está relacionada a essa preocupação. “Nós usamos o trocadilho com a poesia para dar uma graça, mas é também uma maneira de deixar claro que aquele áudio não é real”, diz Moncorvo.
 “Tivemos essa preocupação ao longo da pesquisa, nós não disponibilizamos para o público os modelos que sintetizam as vozes dos presidentes”, afirma Oliveira.
Segundo o cientista, um modelo capaz de verificar a veracidade de uma voz está nos planos do grupo responsável pelo Mr. Falante, mas a pesquisa ainda precisa avançar bastante para que isso seja possível.
“Os modelos de língua inglesa já conseguem reconhecer e controlar com perfeição a prosódia, a variação emocional na entonação da voz. Queremos chegar nesse nível”, fala Oliveira.

A Inteligência Artificial cresce no mundo inteiro, mas os pesquisadores ouvidos por Gama enxergam poucas soluções oferecidas pelo mundo para o português brasileiro. “As pessoas não sabem que existe esse tipo de tecnologia sendo desenvolvida no Brasil. Queremos produzir tecnologia nacional e não simplesmente importar da China, da Europa ou dos EUA”, diz o cientista. “De brasileiros para brasileiros”, finaliza Moncorvo.

 Quem tem medo de deepfake?

 Em 2019, as artistas Francesca Panetta e Halsey Burgund decidiram criar uma linha do tempo alternativa da história dos EUA. Elas não estudaram física quântica ou projetaram uma máquina do tempo e sim apostaram na tecnologia que, em alguns anos, pode mudar a realidade como conhecemos: deepfake.
 O termo, cunhado em 2017, se refere a uma tecnologia que utiliza Inteligência Artificial para sintetizar e produzir vídeos e áudios falsos. Panetta e Burgund criaram “In Event of Moon Disaster”, uma obra de arte que questiona como novas tecnologias podem distorcer, redirecionar ou ofuscar a verdade.
 A possibilidade de fazer com que recriações da história e mentiras pareçam fatos fez com que o medo relacionado às deepfakes aumentasse
 O projeto simula o discurso que o ex-presidente dos EUA Richard Nixon daria caso a missão da Apollo 11 tivesse falhado. O vídeo de seis minutos utiliza o texto original escrito pela Casa Branca em caso de desastre e adiciona técnicas de deepfake, produzindo um vídeo assustadoramente realista do discurso de Nixon. Nessa versão, o mundo chorou o luto por Neil Armstrong e Buzz Aldrin.
 A possibilidade de fazer com que recriações da história e mentiras pareçam fatos fez com que o medo relacionado ao futuro das deepfakes ganhasse mais força com o passar dos anos.
 O relatório anual da Bitdefender, empresa de segurança na Internet, colocou a tecnologia como um dos principais perigos virtuais para o ano de 2020. Já o Facebook instaurou no começo do ano uma política de tolerância zero com deepfakes em sua plataforma.
 É que com essa tecnologia, verdade e democracia correm risco. Afinal, se um vídeo ou áudio pode ser facilmente editado e parecer real, o que impede o público de acreditar, ou desacreditar, no que bem entender?
 Em entrevista à Folha de S. Paulo, Sam Gregory, diretor da organização Witness, diz que não devemos entrar em pânico e sim nos preparar. “Temos uma janela de oportunidade, antes que as deepfakes se tornem ainda mais difundidas, para nos prepararmos melhor para elas do que fizemos nas ondas anteriores de desinformação.”
 Hany Farid, especialista em análise forense de imagens digitais e professor na Universidade da Califórnia entende que são necessárias ações em conjunto, de diversos atores, para conter o efeito negativo que as deepfakes podem ter.
 Para a Folha de S. Paulo, o cientista disse que acredita que plataformas digitais como o Facebook e o YouTube devem assumir uma responsabilidade maior no combate à informações falsas. Além disso, é necessário uma melhor educação virtual para os consumidores, aliado a uma regulação governamental mais forte.

As preocupações são válidas e fundamentais para uma sociedade mais segura, mas existem aqueles que buscam encontrar na tecnologia soluções positivas para problemas e questões atuais.

Deepfake do bem?

Se você ficou impressionado com o poder destrutivo das redes sociais em “O Dilema das Redes” (2020) ou é muito viciado na série “Black Mirror”, é provável que o tema deepfake te deixe levemente preocupado. Afinal, a tecnologia se popularizou ao produzir vídeos pornográficos falsos de famosas, onde o rosto de celebridades eram editados em corpos de outras atrizes.

Entretanto, existem aplicações positivas para as deepfakes. O mundo do entretenimento promete ser revolucionado com a tecnologia, capaz de rejuvenescer atores, sintetizar novas vozes e até mesmo reviver astros que já se foram. Em uma visita de museu, será possível conversar — e tirar selfies — com versões digitalizadas de pintores famosos ou até mesmo ver uma versão em movimento de Mona Lisa.
 O mundo do entretenimento promete ser revolucionado com a tecnologia, capaz de rejuvenescer atores, sintetizar novas vozes e até reviver astros que já se foram
 Regravações de cenas para filmes que não deram certo na primeira ou de áudios para podcasts? Coisas do passado. Propagandas? Em uma campanha contra a malária, David Beckham passou uma importante mensagem em nove línguas — mesmo que o ex-jogador inglês não fale todas elas.
Longe de Hollywood, a tecnologia também pode auxiliar em diversas questões do dia a dia. Na área da acessibilidade, será possível sintetizar vozes mais humanas para leitores de texto.
 Projetos como o Seeing AI da Microsoft e o Lookout do Google, que reconhecem informações importantes no ambiente e narram com uma voz sintética as descobertas para deficientes visuais, são exemplos positivos do que pode ser feito com a tecnologia.
 Interações com atendentes virtuais também alcançarão um novo patamar de realidade, seja com a Siri, com a Alexa ou com operadores de telemarketing computadorizadas. Do sotaque ao timbre, as vozes poderão ser personalizadas para que melhor atendam as expectativas dos clientes.
Além do Text To Speech — onde o texto é transformado em voz –, a tecnologia de deep learning voltada para o áudio possibilitará diversas novidades. Inimigo mortal de toda uma geração, os longos e intermináveis áudios de WhatsApp podem estar com os dias contados.

Em pouco tempo, será possível transformar a inconveniente fala em um texto. Ou vice-versa, caso você precise. Senhas e números de protocolos em ligações bancárias? Nunca mais. A biometria de voz poderá resolver tudo com algumas palavras.

 Publicado por Revista Gama

18 dez
Governo regulamenta uso do blockchain

O governo federal regulamentou o uso de blockchain no Brasil para o Comércio Exterior, de acordo com o Decreto 10.550, assinado pelo presidente Jair Bolsonaro e o Ministro da Economia, Paulo Guedes, em 24/11.

A partir de agora, a tecnologia pode ser usada na administração, fiscalização, controle e tributação das atividades aduaneiras. A nova lei alterou o Decreto 6.759/2009 que regulamenta todas as operações no comércio exterior. No que se refere à tecnologia blockchain, as mudanças aconteceram no parágrafo 562.

“A Secretaria Especial da Receita Federal do Brasil do Ministério da Economia poderá dispor:

— em relação à fatura comercial sobre formas de assinatura mecânica ou eletrônica, permitida a confirmação de autoria e autenticidade do documento, inclusive na hipótese de utilização de blockchain;

— e dispensa de assinatura ou de elementos referidos no art. 557 — que trata sobre todas as informações necessárias do importador, com nome e endereço;

— e a inclusão de novos elementos, a serem definidos em legislação específica”.

Blockchain no Governo

O interesse na tecnologia Blockchain no Brasil como uma ferramenta de gestão pode ser medido pelas ações debate promovidas por diferentes esferas de governo. O Serpro (Serviço Federal de Processamento de Dados) desenvolveu uma plataforma de blockchain para a Receita Federal do Brasil (RFB), a ‘bCONNECT’.

O governo federal possui ainda várias frentes que estudam e discutem a tecnologia blockchain. O Programa Centelha, por exemplo, é um projeto que financia novas soluções em Internet das Coisas (IoT), entre outros. A própria Dataprev vai fornecer blockchain como serviço para o Ministério Público Federal.

 

Publicado por: Convergência Digital

28 out
QTrends Engenharia de Dados – Data mesh, streaming e dados como produtos

Depois de duas edições com um foco na discussão em torno do tema monólitos e microsserviços (“A ascensão e queda dos microservices” e “A vez dos monólitos modulares”), a QTrends de agosto tem como tema os pipelines de streaming de dados, sistemas ETL modernos e data mesh (também chamado de malha de dados). Em nosso último relatório de tendências de Arquitetura e Design, publicado em abril de 2020, data mesh foi classificada como uma tecnologia inovadora, enquanto arquiteturas baseadas em eventos e streaming foram classificadas como tecnologias com maior adoção (early majority).

Em função da combinação do potencial de disrupção de como os dados são tratados e gerenciados, por exemplo com times de produtos tendo a posse e expondo dados por mecanismos self-service, e da evolução de abordagens das preparações de dados (data-wrangling) baseadas em stream, nós acreditamos que um real entendimento de padrões, anti-padrões e tecnologias emergentes relacionadas a esses assuntos são de extrema relevância para profissionais que trabalham com arquitetura de sistemas.

Um panorama

Do pooling ao streaming: a evolução da LaunchDarkly

Dawn Parzych, Developer Advocate na LauchDarkly, descreveu em um artigo recém publicado como a empresa evoluiu o sistema de gestão de feature flags utilizado por clientes de um arquitetura baseada em pooling para uma nova arquitetura baseada em streaming.

Para quem utiliza essa solução, os benefícios incluem um aumento na velocidade das mudanças de configurações e também um consumo menor na bateria de dispositivos móveis. Segundo a publicação, “com a nova abordagem, clientes conseguem ver rapidamente as atualizações quando uma feature flag é alterada e com um consumo de banda significativamente menor” e “conseguimos prolongar o tempo de uso das baterias de dispositivos móveis, uma que vez que não é mais necessário o consumo de tanta energia para a realização de poolings.”.

Tudo que você sempre quis saber sobre Apache Kafka mas não teve coragem de perguntar!

Em uma apresentação realizada na Big Data Conference Vilnius, Ricardo Ferreira explicou o que é o Apache Kafka e como essa solução se encaixa nos conceitos de sistemas distribuídos e processamento de stream. Ricardo também apresentou alguns casos de uso e padrões de design relacionados ao uso do Kafka.

Um dos pontos principais da palestra foi o fato de que o Apache Kafka pode ser encarado como uma plataforma de streaming distribuído. Ricardo disse que profissionais dificilmente entenderão o Kafka se pensarem na ferramenta como “só uma mensageria” e que “mensageria não tem persistência e, assim como bando de dados, possuem limites de escalabilidade”.

Você pode encontrar outras duas apresentações sobre Apache Kafka realizadas pelo Ricardo Ferreira, dessa vez em português, aqui no InfoQ Brasil.

Registro de schemas do Amazon EventBridge disponível na AWS

Recentemente a Amazon anunciou a disponibilidade da funcionalidade de registro de schemas no serviço Amazon EventBridge. A proposta do registro de schemas do Amazon EventBridge é que de profissionais do desenvolvimento possam armazenar a estrutura – ou o schema – de eventos em um ponto central compartilhado e mapear essas estruturas em código Java, Python e Typescript. Com isso, fica possível a utilização desses eventos como objetos no código-fonte.

O anúncio dessa nova funcionalidade coloca o Amazon EventBridge como um grande competidor frente a outras soluções oferecidas por outras plataformas na nuvem. A Microsoft oferece o EventGrid que já está disponível desde o início de 2018 e já recebeu diversas atualizações, incluindo a construção de filtros avançadosregras para retentativas e suporte para o CloudEvents. Por outro lado, o serviço da Microsoft não contém a funcionalidade de registro de schemas.

Indo além, o mesmo é válido para o EveryBridge da Triggermesh. Esse integrador de eventos (event bus) é capaz de consumir eventos de diferentes fontes, fazendo com que profissionais do desenvolvimento possam utilizá-lo para a criação de funções servless que poderão ser executadas na maioria das plataformas na nuvem, bem como em soluções on-premise.

Melhorando o Apache Spark com GPUs e a biblioteca RAPIDS

Durante a conferência Spark AI Summit Europe em 2019, os desenvolvedores da NVIDIA Thomas Graves e Miguel Martinez apresentaram a palestra “Acelerando o Apache Spark em diversas ordens de magnitude com GPUs e a biblioteca RAPIDS”. Recentemente o InfoQ conversou com Jim Scott, Head of Developers Relations na NVIDIA, para entender melhor sobre como acelerar o Apache Spark com GPUs e a biblioteca RAPIDS.

A RAPIDS é um conjunto de bibliotecas e APIs open-source para a execução em GPUs de pipelines de data science e analytics de ponta a ponta, possibilitando um significativo aumento na velocidade de processamento, especialmente em grandes conjuntos de dados. Construída em cima da NVIDIA CUDA, a RAPIDS disponibiliza o paralelismo e todo o poder da velocidade da memória da GPU através de uma interface Python amigável e uma API que integra uma variedade de algoritmos de machine learning para a aceleração de pipelines de ponta a ponta.

Estudo de caso

Data Mesh, domínios orientados a dados e a construção de plataforma de dados por Zhamak Dehghani

Em um popular podcast produzido pelo InfoQ, o conceito de “data mesh” foi apresentado por Zhamak Dehghani, que é Principal Consultant e Porfolio Director na ThoughtWorks. A discussão incluiu as motivações para se tornar uma empresa guiada por dados (data-driven), os desafios para se adaptar plataformas legadas e rotinas ETL, e como fazer o design e implementar a próxima geração de plataforma de dados utilizando ideias do DDD e product thinking, além de alguns princípios modernos de plataformas, como processos e soluções self-service.

O começo da conversa foi marcado por Zhamak dizendo que se tornar uma empresa data-driven ainda é um dos principais objetivos estratégicos de muitas empresas. Ser capaz de rodar experimentos rapidamente e analisar os dados resultados desses experimentos de forma eficiente pode trazer uma grande vantagem competitiva para diversos negócios.

Há uma série de “modelos falhos de arquitetura” dentro das plataformas corporativas de dados existentes. Elas são centralizadas e construídas com monólitos. A construção dos pipelines de dados possui, geralmente, um grande acoplamento, o que significa que uma eventual alteração em um dado implicará em uma cascata de modificações ao longo de todo o pipeline. Além disso, a posse, o domínio dessas plataformas de dados é cheia de silos e hiper especializada.

A próxima geração de plataforma corporativas de dados necessitam de uma mudança de paradigma em direção à ubiquidade dos dados com um data mesh distribuído. Zhamak acredita que, ao invés dos dados navegarem de um domínio para um data lake ou uma plataforma central, cada domínio precisa armazenar e servir seus dados de uma forma facilmente consumível, em um estilo self-service.

Além disso, times responsáveis pelos dados de domínios precisam aplicar o product thinking aos conjuntos de dados providos por eles, também precisam considerar esses dados como seus produtos e quem consome essas informações, tais como profissionais da ciência de dados, do aprendizado de máquina e da engenharia de dados, como clientes.

O podcast completo, bem como sua transcrição, pode ser encontrado no InfoQ.

E por aqui?

Fazer uma comparação direta com o estágio de adoção de determinadas tecnologias e práticas no Brasil com regiões como a América do Norte e a Europa não é algo tão simples de ser feito. Nosso mercado, um tanto quanto conservador, faz com que assuntos como data mesh ainda nem ecoem por aqui, ao passo que streaming de dados já é algo que conseguimos escutar no contexto de algumas grandes empresas.

Isso, porém, não significa que não tenham coisas muito interessantes acontecendo por esses lados do planeta. Se você der uma olhada no tópico de Streaming dentro do InfoQ Brasil verá diversas palestras com conteúdos e cases bastante relevantes, como a apresentação feita pelo Eiti Kimura da Wavy onde ele apresenta os desafios de se processar um volume de mais de 100 milhões de transações por dia.

 

13 out
Evento online tem maratona de programação e prêmio de até R$ 5 mil

Hackathon OLX ocorre entre dias 16 e 25 de outubro; participantes concorrem a um Summer Job na OLX e a prêmios de até R$ 5 mil

O Hackathon OLX é uma maratona digital para jovens universitários que vai acontecer virtualmente entre dos dias 16 e 25 de outubro. A iniciativa é fruto de uma parceria entre a OLX e o Hacktudo, festival de cultura digital, e se destina a jovens interessados em criar projetos a cerca do tema “Economia Colaborativa em Tempos de Pandemia”. As inscrições são gratuitas e devem ser realizadas até a próxima segunda-feira (28) pelo Sympla.

Podem participar do hackathon alunos universitários de cursos superiores de graduação em qualquer área do conhecimento e estudantes de cursos técnicos. Vale ressaltar que as inscrições só serão válidas para alunos com matrícula vigente. O evento ainda vai contar com prêmios em dinheiro para os três grupos finalistas, além de oferecer seminários online e sessões de mentoria para os participantes, que também vão concorrer a um Summer Job na OLX.

Abertura da Hackathon do festival Hacktudo 2019 — Foto: Divulgação/Hacktudo

Abertura da Hackathon do festival Hacktudo 2019 — Foto: Divulgação/Hacktudo

Além disso, a participação no Hackathon OLX está limitada aos 30 primeiros times que se cadastrarem na maratona. As inscrições devem ser realizadas por grupos de três a quatro estudantes, e um dos integrantes da equipe deve ficar responsável pelo envio dos comprovantes de matrícula e documentos necessários de cada membro do grupo. Valem boletos bancários ou faturas de cartão de crédito que constem os débitos de pagamento do curso e carteirinhas de identificação ou declaração da instituição.

O concurso seguirá um cronograma definido. Durante a abertura do evento, no dia 16 de outubro, será anunciado um desafio para os participantes, que terão 36 horas para idealizar e desenvolver uma solução inovadora e criativa a partir de um projeto original e aplicável. Após esse período, as dez equipes que mais se destacarem seguirão para a próxima etapa, um pitching no dia 24 de outubro. Então, no dia 25, serão revelados os três melhores projetos. O hackathon também vai contar com sessões de mentoria e outras dinâmicas virtuais e o time vencedor ainda leva para casa R$ 5 mil.

Para inscrever seu time no Hackathon OLX, basta acessar o site

O que é o Hacktudo?

O Hackathon OLX é apenas uma das atividades previstas para o Hacktudo, festival de cultura digital que acontece online e gratuitamente entre os dias 16 e 25 de outubro. O evento ainda vai apresentar conferências com profissionais de grandes empresas de tecnologia e uma exposição virtual do artista Jota Azevedo sobre lixo eletrônico. A programação também inclui atividades exclusivas para as mulheres e para o público infanto-juvenil. Para saber todos os detalhes e se inscrever nos laboratórios, basta acessar: www.hacktudo.com.br

28 set
Banco Nacional de Empregos: Vagas em TI disparam 63% na pandemia

O desemprego segue em alta no Brasil, com 13 milhões de desocupados, ou 13,6% da população ativa do país. Mas não para todos. Para os profissionais ligados a áreas de tecnologia da informação, o ritmo é de aquecimento no mercado de trabalho, com alta de 63% segundo levantamento do Banco Nacional de Empregos, um portal de currículos com 135 mil empresas cadastradas.

Segundo esse levantamento, enquanto no ano passado, de janeiro a setembro, foram abertas 8.049 vagas, no mesmo período em 2020 a procura chegou a 12.682 postos – daí a alta de 63%.

Também de acordo com essa pesquisa, os estados de São Paulo (5.793), Santa Catariana (1.378), Paraná (1.105), Rio Grande do Sul (1.020) e Rio de Janeiro (858) são os que oferecem mais vagas no setor. Comparado com o ano passado, o aumento das vagas de TI em São Paulo foi de 138%.

“Com a maior opção por serviços delivery, internet e e-commerce, áreas diretamente ligadas à tecnologia tornaram-se necessárias dentro das empresas para que o atendimento continuasse acontecendo, o que consequentemente responde esse aumento de vagas na área de tecnologia”, aponta a pesquisa do BNE.

Publicado por Convergência Digital 

16 set
Unity IPO aims to fuel growth across gaming and beyond

A look at its core offerings and revenue streams

Image Credits: Nigel Sussman

Unity Software Inc. is set to list on the New York Stock Exchange this month, following its S-1 filing two weeks ago. The 16-year-old tech company is universally known within the gaming industry and largely unknown outside of it. But Unity has been expanding beyond gaming, pouring hundreds of millions of dollars into a massive bet to be an underlying platform for humanity’s future in a world where interactive 3D media stretches from our entertainment experiences and consumer applications to office and manufacturing workflows.

Much of the press about Unity’s  S-1 filing mischaracterizes the business. Unity is easily misunderstood because most people who aren’t (game) developers don’t know what a game engine actually does, because Unity has numerous revenue streams, and because Unity and the competitor it is most compared to — Epic Games — only partially overlap in their businesses.

Last year, I wrote an in-depth guide to Unity’s founding and rise in popularity, interviewing more than 20 top executives in San Francisco and Copenhagen, plus many other professionals in the industry. In this two-part guide to get up to speed on the company, I’ll explain Unity’s business, where it is positioned in the market, what its R&D is focused on and how game engines are eating the world as they gain adoption across other industries.

In part two, I’ll analyze Unity’s financials, explain how the company has positioned itself in the S-1 to earn a higher valuation and outline both the bear and bull cases for its future.

For those in the gaming industry who are familiar with Unity, the S-1 might surprise you in a few regards. The Asset Store is a much smaller business that you might think, Unity is more of an enterprise software company than a self-service platform for indie devs and advertising solutions appear to make up the largest segment of Unity’s revenue.

What is a game engine?

Unity’s origin is as a game engine, software that is similar to Adobe Photoshop, but used instead for editing games and creating interactive 3D content. Users import digital assets (often from Autodesk’s Maya) and add logic to guide each asset’s behavior, character interactions, physics, lighting and countless other factors that create fully interactive games. Creators then export the final product to one or more of the 20 platforms Unity supports, such as Apple iOS and Google Android, Xbox and Playstation, Oculus Quest and Microsoft HoloLens, etc.

In this regard, Unity is more comparable to Adobe and Autodesk than to game studios or publishers like Electronic Arts and Zynga.

What are Unity’s lines of business?

Since John Riccitiello took over as CEO from co-founder David Helgason in 2014, Unity has expanded beyond its game engine and has organized activities into two divisions: Create Solutions (i.e., tools for content creation) and Operate Solutions (i.e., tools for managing and monetizing content). There are seven noteworthy revenue streams overall:

Create Solutions (29% of H1 2020 revenue)

  • The Unity platform: The core game engine, which operates on a freemium subscription model. Individuals, small teams and students use it for free, whereas more established game studios and enterprises in other industries pay (via the Unity Plus, Unity Pro and Unity Enterprise premium tiers).
  • Engine extensions: A growing portfolio of tools and extensions of the core engine purpose-built for specific industries and use cases. These include MARS for VR development, Reflect for architecture and construction use with BIM assets, Pixyz for importing CAD data, Cinemachine for virtual production of films and ArtEngine for automated art creation.
  • Professional services: Hands-on, specialized consulting for enterprise customers using Unity’s engine and other products. Unity expanded its consulting capacity further in April with a $55 million acquisition of Finger Food Studios, a 200-person team in Vancouver that builds interactive media projects for corporate clients using Unity.

Aside from these three product categories, Unity is reporting another group of content creation offerings separately in the S-1 as “Strategic Partnerships & Other” (which accounts for further 9% of revenue):

  • Strategic Partnerships: Major tech companies pay Unity via a mix of structures (flat-fee, revenue-share and royalties) for Unity to create and maintain integrations with their software and/or hardware. Since Unity is the most popular platform to build games with, ensuring Unity integrates well with Oculus or with the Play Store is very important to Facebook and Google, respectively, for example.
  • Unity Asset Store: Unity’s marketplace for artists and developers to buy and sell digital assets like a spooky forest or the physics to guide characters’ joint movements for use in their content so they don’t each have to design and code1 every single thing from scratch. It is commonly used, though larger game studios often use Asset Store assets just for initial prototyping of game ideas.

Operate Solutions (62% of H1 2020 revenue)

  • Advertising: Via the 2014 acquisition of Applifier, Unity launched an in-game advertising network for mobile games. This expanded substantially with the Unified Auction, a simultaneous auction that helps games get the highest bid from among potential advertisers. Unity is now one of the world’s largest mobile ad networks, serving 23 billion ads per month. Unity also has a dynamic monetization tool that makes real-time assessments of whether it is optimal to serve an ad, prompt an in-app purchase or do nothing to maximize each player’s lifetime value. While the Unity IAP feature enables developers to manage in-app purchases (IAP), Unity does not take a cut of IAP revenue at this time.
  • Live Services: A portfolio of cloud-based solutions for game developers to better manage and optimize their user acquisition, player matchmaking, server hosting and identification of bugs. This portfolio has primarily been assembled through acquisitions like Multiplay (cloud game server hosting and matchmaking), Vivox (cloud-hosted system for voice and text chat between players in games), and deltaDNA (player segmentation for campaigns to improve engagement, monetization and retention). There is also Unity Simulate for training AI models in virtual recreations of the real world (or testing games for bugs). Live Services products have usage-based pricing, with an initial amount of usage free.

Unity versus Unreal, versus others

Unity is compared most frequently to Epic Games, the company behind the other leading game engine, Unreal. Below is a quick overview of the products and services that differentiate each company. The cost of switching game engines is meaningful in that developers are typically specialized in one or the other and can take months to gain high proficiency in another, but some teams do vary the engine they use for different projects. Moving an existing game (or other project) over to a new game engine is a major undertaking that requires extensive rebuilding.

Epic Games

Epic has three main businesses: game development, the Epic Games Store, and the Unreal Engine. Epic’s core is in developing its own games and the vast majority of Epic’s $4.2 billion in 2019 revenue came from that (principally, from Fortnite). The Epic Games Store is a consumer-facing marketplace for gamers to purchase and download games; game developers pay Epic a 12.5% cut of their sales.

In those two areas of business, Unity and Epic don’t compete. While much of the press about Unity’s IPO frames Epic’s current conflict with Apple as an opportunity for Unity, it is largely irrelevant. A court order prevented Apple from blocking iOS apps made with Unreal in retaliation for Epic trying to skirt Apple’s 30% cut of in-app purchases in Fortnite. Unity doesn’t have any of its own apps in the App Store and doesn’t have a consumer-facing store for games. It’s already the default choice of game engine for anyone building a game for iOS or Android, and it’s not feasible to switch the engine of an existing game, so Epic’s conflict does not create much of a new market opening.

Let’s compare the Unity and Unreal engines:

Origins: Unreal was Epic’s proprietary engine for the 1998 game Unreal and was licensed to other PC and console studios and became its own business as a result of its popularity. Unity launched as an engine for indie developers building Mac games, an underserved niche, and expanded to other emerging market segments considered irrelevant by the core gaming industry: small indie studios, mobile developers, AR & VR games. Unity exploded in global popularity as the main engine for mobile games.

Programming Language: Based in the C++ programming language, Unreal requires more extensive programming than Unity (which requires programming in C#) but enables more customization, which in turn enables higher performance.

Core Markets: Unreal is much more popular among PC and console game developers; it is oriented toward bigger, high-performance projects by professionals. That said, it is establishing itself firmly in AR and VR and proved with Fortnite it can take a console and PC game cross-platform to mobile. Unity dominates in mobile games — now the largest (and fastest growing) segment of the gaming industry — where it has over 50% market share and where Unreal is not a common alternative. Unity has kept the largest market share in AR and VR content, at over 60%.

Ease of Authoring: Neither engine is easy for a complete novice, but both are fairly straightforward to navigate if you have basic coding abilities and put the time into experimenting and watching tutorials. Unity has prioritized ease of use since its early days, with a mission of democratizing game development that was so concentrated among large studios with large budgets, and ease of authoring remains a key R&D focus. This is why Unity is the common choice in educational environments and by individuals and small teams creating casual mobile games. Unity lets you see but not edit the engine’s source code unless you pay for an enterprise subscription; this protects developers from catastrophic mistakes but limits customization. Unreal isn’t dramatically more complex but, as a generalization, it requires more lines of code and technical skill. It is open source code so can be completely customized. Unreal has a visual scripting tool called Blueprint to conduct some development without needing to code; it’s respected and often used by designers though not a no-code solution to developing a complex, high-performance game (no one offers that). Unity recently rolled out its own visual scripting solution for free called Bolt.

Pricing: While Unity’s engine operates on a freemium subscription model (then has a portfolio of other product offerings), Unreal operates on a revenue-share, taking 5% of a game’s revenue. Both have separately negotiated pricing for companies outside of gaming that aren’t publicly disclosed.

Proprietary engines

Many large gaming companies, especially in the PC and console categories, continue to use their own proprietary game engines built in-house. It is a large, ongoing investment to maintain a proprietary engine, which is why a growing number of these companies are switching to Unreal or Unity so they can focus more resources on content creation and tap into the large talent pools that already have mastery in each one.

Other Engines

Other game engines to note are Cocos2D (an open source framework by Chukong Technologies that has a particular following among mobile developers in China, Japan, and South Korea), CryEngine by Crytek (popular for first-person shooters with high visual fidelity), and Amazon’s Lumberyard (which was built off CryEngine and doesn’t seem to have widespread adoption, or command much respect, among the many developers and executives I’ve spoken to).

For amateur game developers without programming skills, YoYo Games’ GameMaker Studio and Scirra’s Construct are both commonly used to build simple 2D games (Construct is used for HTML5 games in particular); users typically move on to Unity or Unreal as they gain more skill.

There remain a long list of niche game engines in the market since every studio needs to use one and those who build their own often license it if their games aren’t commercial successes or they see an underserved niche among studios creating similar games. That said, it’s become very tough to compete with the robust offerings of the industry standards — Unity and Unreal — and tough to recruit developers to work with a niche engine.

UGC Platforms

User-generated content platforms for creating and playing games like Roblox (or new entrants like Manticore’s Core and Facebook Horizon) don’t compete with Unity — at least for the foreseeable future — because they are dramatically simplified platforms for creating games within a closed ecosystem with dramatically more limited monetization opportunity. The only game developers these will pull away from Unity are hobbyists on Unity’s free tier.

I’ve written extensively on how UGC-based game platforms are central to the next paradigm of social media, anchored within gaming-centric virtual worlds. But based on the overall gaming market growth and the diversity of game types, these platforms can continue to soar in popularity without being a competitive threat to the traditional studios who pay Unity for its engine, ad network, or cloud products.

What’s at the forefront of Unity’s technical innovation?

DOTS

For the last three years, Unity has been creating its “data oriented technology stack,” or DOTS, and gradually rolling it out in modules across the engine.

Unity’s engine centers on programming in C# code which is easier to learn and more time-saving than C++ since it is a slightly higher level programming language. Simplification comes with the trade off of less ability to customize instruction by directly interacting with memory. C++, which is the standard for Unreal, enables that level of customization to achieve better performance but requires writing a lot more code and having more technical skill.

DOTS is an effort to not just resolve that discrepancy but achieve dramatically faster performance. Many of the most popular programming languages in use today are “object-oriented,” a paradigm that groups characteristics of an object together so, for example, an object of the type “human” has weight and height attached. This is easier for the way humans think and solve problems. Unity takes advantage of the ability to add annotations to C# code and claims a proprietary breakthrough in understanding how to recompile object-oriented code into “data-oriented” code, which is optimized for how computers work (in this example, say all heights together and all weights together). This is orders of magnitude faster in processing the request at the lowest level languages that provide 1s-and-0s instructions to the processor.

This level of efficiency should, on one hand, allow highly-complex games and simulations with cutting-edge graphics to run quickly on GPU-enabled devices, while, on the other hand, allowing simpler games to be so small in file size they can run within messenger apps on the lowest quality smartphones and even on the screens of smart fridges.

Unity is bringing DOTS to different components of its engine one step at a time and users can opt whether or not to use DOTS for each component of their project. The company’s Megacity demo (below) shows DOTS enabling a sci-fi city with hundreds of thousands of assets rendered in real-time, from the blades spinning on the air conditioners in every apartment building to flying car traffic responding to the player’s movements.

Graphics

The forefront of graphics technology is in enabling ray tracing (a lighting effect mimicking the real-life behavior of light reflecting off different surfaces) at a fast enough rendering speed so games and other interactive content can be photorealistic (i.e. you can’t tell it’s not the real world). It’s already possible to achieve this in certain contexts but takes substantial processing power to render. Its initial use is for content that is not rendered in real-time, like films. Here are videos by both Unity and Unreal demonstrating ray tracing used to make a digital version of a BMW look nearly identical to video of a real car:

To support ray-tracing and other cutting-edge graphics, Unity released its High Definition Render Pipeline in 2018. It gives developers more powerful graphics rendering for GPU devices to achieve high visual fidelity in console and PC games plus non-gaming uses like industrial simulations. (By comparison, its Universal Render Pipeline optimizes content for lower-end hardware like mobile phones.)

Next-gen authoring

Unity’s Research Labs team is focused on the next generation of authoring tools, particularly in an era of AR or VR headsets being widely adopted. One component of this is the vision for a future where nontechnical people could develop 3D content with Unity solely through hand gestures and voice commands. In 2016, Unity released an early concept video for this project (something I demo-ed at Unity headquarters in SF last year):

Game engines are eating the world

The term “game engine” limits the scope of what Unity and Unreal are already used for. They are interactive 3D engines used for practically any type of digital content you can imagine. The core engine is used for virtual production of films to autonomous vehicle training simulations to car configurators on auto websites to interactive renderings of buildings.

Both of these engines have long been used outside gaming by people repurposing them and over the last five years Unity and Unreal have made expanding use of their engines in other industries a top priority. They are primarily focused on large- and mid-size companies in 1) architecture, engineering, and construction, 2) automotive and heavy manufacturing, and 3) cinematic video.

In films and TV commercials, game engines are used for virtual production. The settings, whether animated or scanned from real-world environments, are set up as virtual environments (like those of a video game) where virtual characters interact and the camera view can be changed instantaneously. Human actors are captured through sets that are surrounded by the virtual environment on screens. The director and VFX team can change the surroundings, the time of day, etc. in real-time to find the perfect shot.

There are a vast scope of commercial uses for Unity since assets can be imported from CAD, BIM, and other formats and since Unity gives you the ability to build a whole world and simulate changes in real-time. There are four main use cases for Unity’s engine beyond entertainment experiences:

  1. Design & Planning: have teams work on interactive 3D models of their product simultaneously (in VR, AR, or on screens) from offices around the world and attach metadata to every component about its materials, pricing, etc. The Hong Kong International airport used Unity to create a digital twin of the terminals connected to Internet of Things (IoT) data, informing them of passenger flow, maintenance issues, and more in real-time.
  2. Training, Sales & Marketing: use interactive 3D content so staff or customers can engage with: a) photorealistic renderings of industrial products; b) VR trainings for risky construction situations; c) online car configurators that render custom designs in real-time; or d) an architect’s plan for new office space with every asset within the project filled with metadata and responsive to interaction, changes in lighting, etc.
  3. Simulation: generate training data for machine learning algorithms using virtual recreations of real-world environments (like for autonomous vehicles in San Francisco) and running thousands of instances in each batch. Unity Simulation customers include Google’s DeepMind and Unity teamed up with LG to create a simulation module specific to autonomous vehicles.
  4. Human Machine Interfaces (interactive screens): create interactive displays for in-vehicle infotainment systems and AR heads up displays, as showcased by Unity’s 2018 collaboration with electric car startup Byton.

Unity’s ambitions beyond gaming ultimately touch every facet of life. In his 2015 internal memo in favor of acquiring Unity, Facebook CEO Mark Zuckerberg wrote “VR / AR will be the next major computing platform after mobile.” Unity is currently in a powerful position as the key platform for developing VR / AR content and distributing it across different operating systems and devices. Zuckerberg saw Unity as the natural platform off which to build “key platform services” in the mixed reality ecosystem like an “avatar / content marketplace and app distribution store”.

If Unity maintains its position as the leading platform for building all types of mixed reality applications into the era when mixed reality is our main digital medium, it stands to be one of the most important technology companies in the world. It would be the engine everyone across industries turns to for creating applications, with dramatically larger TAM and monetization potential for the core engine than is currently the case. It could expand up the stack, per Zuckerberg’s argument, into consumer-facing functions that exist across apps, like identify, app distribution, and payments. Its advertising product is already in position to extend into augmented reality ads within apps built with Unity. This could make it the largest ad network in the AR era.

This grand vision is still far away though. First, the company’s expansion beyond gaming is still early in gaining traction and customers generally need a lot of consulting support. You’ll notice other coverage of Unity over the last few years all tends to mention the same case studies of use outside gaming; there just aren’t that many than have been rolled out by large companies. Unity is still in the stage of gaining name recognition and educating these markets about what its engine can do. There are promising proof points of its value but market penetration is small.

Second, the era of AR as “the next major computing platform after mobile” seems easily a decade away, during which time existing and yet-to-be-founded tech giants will also advance their positions in different parts of the AR tech, authoring, and services stack. Apple, Facebook, Google, and Microsoft are collaborators with Unity right now but any of them could decide to compete with their own AR-focused engine (and if any of them acquire Unity, the others will almost certainly do so because of the loss of Unity’s neutral position between them).

 

Published by Techcrunch

27 ago
5 bibliotecas python interessantes

Você já pensou que a visualização de dados pode estar na linha de comando?

Como uma das linguagens de programação mais populares, python tem um grande número de bibliotecas excelentes que facilitam o desenvolvimento como Pandas, Numpy, Matplotlib, SciPy, etc.

No entanto, neste artigo, vou apresentar a vocês algumas bibliotecas que são mais interessantes do que muito úteis. Acredito que essas bibliotecas podem mostrar outro aspecto do Python e o prosperar da comunidade.

1. Bashplotlib

Honestamente, quando vejo esta biblioteca pela primeira vez, questionei por que as pessoas podem precisar disso? Bashplotlib é uma biblioteca Python que nos permite traçar dados em um ambiente stdout de linha de comando.

Logo percebi que provavelmente será útil quando você não tiver nenhuma GUI disponível. Bem, este cenário pode não ser tão frequente, mas não impede minha curiosidade e sentir que é uma biblioteca Python muito interessante.

Bashplotlib pode ser facilmente instalado com .pip

pip install bashplotlib

Vamos ver alguns exemplos. No código abaixo, eu importei para gerar algumas matrizes aleatórias, bem como o , é claro.numpybashplotlib

import numpy as np
from bashplotlib.histogram import plot_hist
arr = np.random.normal(size=1000, loc=0, scale=1)

plot_hist é uma função a partir disso é para plotar dados 1D em um histograma, assim como faz em Matplotlib. Então, eu uso Numpy gerou uma matriz aleatória com 1.000 números que normalmente são distribuídos. Depois disso, podemos facilmente traçar esses dados da seguinte forma:bashplotlibplt.hist

plot_hist(arr, bincount=50)

A saída é assim

Não é interessante? 🙂

Além disso, você pode traçar seus dados em um gráfico de dispersão de arquivos de texto

2. PrettyTable

O Bashplotlib que acabei de introduzir é para traçar dados no ambiente de linha de comando, enquanto PrettyTable é para tabela de saída em um formato bonito.

Da mesma forma, podemos facilmente instalar esta biblioteca usando .pip

pip install prettytable

Em primeiro lugar, vamos importar a liberdade.

from prettytable import PrettyTable

Então, podemos usar para criar um objeto de tabela.PrettyTable

table = PrettyTable()

Uma vez que tenhamos o objeto de tabela, podemos começar a adicionar campos e linhas de dados.

table.field_names = ['Name', 'Age', 'City']
table.add_row(["Alice", 20, "Adelaide"])
table.add_row(["Bob", 20, "Brisbane"])
table.add_row(["Chris", 20, "Cairns"])
table.add_row(["David", 20, "Sydney"])
table.add_row(["Ella", 20, "Melbourne"])

Para exibir a mesa, basta imprimi-la!

print(table)

PrettyTable também suporta refinar os estilos de mesa, em quase todas as perspectivas que você pode pensar. Por exemplo, você pode alinhar corretamente o texto na tabela:
table.align = 'r'
print(table)

Classificar a tabela por uma coluna

table.sortby = "City"
print(table)



Você pode até mesmo obter sequência HTML da tabela

3. FuzzyWuzzy

Esta biblioteca não é apenas muito interessante, mas também muito útil, na minha opinião. Muitas vezes você pode querer implementar um recurso de pesquisa “confuso” para o seu programa. FuzzyWuzzy fornece uma solução fora da caixa e leve para isso.

Instale-o como de costume.pip

pip install fuzzywuzzy

Importar a biblioteca:

from fuzzywuzzy import fuzz

Vamos fazer um teste simples.

fuzz.ratio(“Let’s do a simple test”, “Let us do a simple test”)

Como mostrado o resultado “93” significa que essas duas cordas têm 93% de semelhança, o que é bastante alto.

Quando você tem uma lista de strings, e você quer pesquisar um termo contra todos eles, FuzzyWuzzy vai ajudá-lo a extrair as mais relevantes com suas semelhanças.

from fuzzywuzzy import processchoices = ["Data Visualisation", "Data Visualization", "Customised Behaviours", "Customized Behaviors"]process.extract("data visulisation", choices, limit=2)
process.extract("custom behaviour", choices, limit=2)


No exemplo acima, o parâmetro diz fuzzyWuzzy para extrair os resultados “top n” para você. Caso contrário, você terá uma lista de tuplas com todas essas cordas originais e suas pontuações de semelhança.limit

4. TQDM

Você geralmente desenvolve ferramentas de linha de comando usando Python? Se assim for, esta interessante biblioteca vai ajudá-lo quando sua ferramenta CLI está processando algo demorado, mostrando uma barra de progresso para indicar o quanto foi feito.

Instalação usando, novamente.pip

pip install tqdm

Quando você tiver uma função de uso de loop, basta substituí-la por tqdm.rangetrange

from tqdm import trangefor i in trange(100):
    sleep(0.01)




De forma mais geral, você pode querer fazer um loop de uma lista. Isso também é fácil com tqdm.

from tqdm import tqdm
for e in tqdm([1,2,3,4,5,6,7,8,9]):
    sleep(0.5)  # Suppose we are doing something with the elements



tqdm funciona não apenas para o ambiente de linha de comando, mas também iPython/Jupyter Notebook.


Image for post

5. Colorama

Deseja adicionar algumas cores aos seus aplicativos de linha de comando? Colorama torna muito fácil produzir tudo na sua cor preferida.

Instalar o Colorama precisa de novo.pip

pip install colorama

O Colorama suporta renderizar a cor do texto de saída em “primeiro plano” (a cor do texto), “fundo” (a cor de fundo) e “estilo” (estilo extra da cor). Podemos importar

from colorama import Fore, Back, Style

Em primeiro lugar, vamos mostrar alguns avisos usando a cor amarela.

print(Fore.YELLOW)
print("This is a warning!")
Image for post

Então, vamos tentar mostrar alguns erros usando uma cor de fundo vermelho.

print(Back.RED + Fore.WHITE + "This is an error!")


Image for post

Esse vermelho é muito brilhante. Vamos usar o estilo “dim”.

print(Back.RESET + Style.DIM + "Another error!")

Aqui estamos definindo “RESET” para voltar a alterar a cor de fundo para padrão.

Image for post

O estilo “DIM” torna a fonte meio invisível. Quando quisermos mudar tudo de volta ao normal, basta definir “Estilo” para “RESET_ALL”

print(Style.RESET_ALL)

Image for post

Resumo

Graças a esses desenvolvedores de código aberto que contribuem para a comunidade Python e a prosperam.

Antes de ver a biblioteca Bashplotlib, tenho que dizer que nunca tive essa ideia de traçar dados em um ambiente de linha de comando. Não importa se pode ou não ser útil para você, eu diria que a diversidade das ideias de desenvolvimento e criativos das pessoas nunca terminou.

A vida é curta, use Python!

Publicado por Medium 



Está com dúvidas?
Estamos aqui pra ajudar! Envia um e-mail ou chama no whatsapp: (86) 3133-7070
Entrar em contato!
© 2024 iCEV Instituto de Ensino Superior
Esse domínio pertence ao Grupo Educacional Superior CEV
CNPJ: 12.175.436/0001-09