fbpx

18 out
Brasil participa de conferência global contra ransomware na Casa Branca

Representantes de 30 países, entre eles o Brasil, se reuniram dia 13 de outubro, para uma conferência virtual convocada pela Casa Branca, nos Estados Unidos, dando início a um debate sobre medidas internacionais de combate ao ransomware. Mas dois países estratégicos estão fora do encontro: Rússia e China.

O encontro vai ter seis sessões e vai durar dois dias. Apenas a primeira delas foi aberta à mídia. As outras cinco sessões serão fechadas e vão abordar temas como resiliência nacional (liderado pela Índia), combate ao financiamento ilícito (liderado pelo Reino Unido), interrupção e outros esforços de aplicação da lei (liderado pela Austrália) e diplomacia (liderado pela Alemanha). Não foi revelada em qual sessão o Brasil estará presente.

Questionado sobre a ausência da Rússia, um alto funcionário da Casa Branca, sob a garantia do anonimato, disse que há um grupo de especialistas dos EUA e do Kremlin discutindo diretamente ransomware e outros ataques cibernéticos. “Esperamos que o governo russo trate da atividade criminosa de ransomware proveniente de atores dentro da Rússia”, disse o funcionário. Não houve uma explicação oficial para a ausência da China.

A Conferência global contra ransomware estabeleceu quatro objetivos: melhorar a detecção desses crimes cibernéticos, aumentar a resiliência de redes e empresas públicas e privadas a ataques, acabar com a impunidade que protege as criptomoedas, normalmente usadas para o pagamento de resgates, e aumentar a cooperação internacional no combate ao cibercrime.

As perdas econômicas globais causadas por ataques de ransomware aumentaram em 2020, de acordo com estimativas do Conselho de Segurança Nacional dos Estados Unidos e chegaram a US$ 400 milhões. E só aumentam. Tanto que os prejuízos somaram US$ 81 milhões no primeiro trimestre.

Publicado por Convergência Digital

14 out
Você sabe o que é o conceito de Computação em Nuvem? O iCEV Explica!

Computação em Nuvem está muito presente hoje no nosso dia a dia: quando você acessa o e-mail do seu celular ou arquivos no seu smartphone; quando você está acessando a sua TV na Netflix para assistir um vídeo; a partir do momento que você está com sua conta do Nubank, todos esses dados e arquivos estão armazenados em nuvem.

 

Então o que é que é Computação em Nuvem?

A nuvem é, nada mais nada menos, do que você deixar de ter seu servidor dentro do seu Data Center da sua empresa, para esse servidor estar em um provedor de nuvem. Hoje os principais provedores de nuvem são a Amazon (AWS), que iniciou esse mercado, a Google Cloud, Oracle e a Azure, são os principais.

 

Qual a grande vantagem deste ambiente?

A escalabilidade, ou seja, em qualquer situação eu consigo aumentar meus recursos computacionais, coisa que eu não posso quando eu estou dentro de um ambiente on premise, dentro da minha empresa.

Se eu compro um servidor para a minha empresa, e eu preciso aumentar a quantidade de memória, a quantidade de disco, isso é inviável, eu teria que comprar um segundo servidor.

Dentro de um ambiente de Cloud Computing, consigo aumentar isso com um clique de mouse, arrastando.

Outra grande vantagem é a alta disponibilidade desse ambiente, então consigo rodar uma aplicação, na hora que eu crio a aplicação eu digo “olha, essa aplicação vai estar rodando em 2, 3, 4 instâncias ao mesmo tempo”. Caso uma dessas instâncias cair, ele é iniciado automaticamente, isso traz uma grande vantagem para os meus recursos computacionais, que é chamado de resiliência.

 

Zona de alta disponibilidade

Todos os provedores de nuvem estão altamente preparados em casos de contratempos, eles têm um recurso chamado de “zona de alta disponibilidade”.

Eles colocam os Data Centers deles, espalhados geograficamente no mundo em réplicas, então aquele meu dado que está num Data Center é replicado em um segundo Data Center. A partir do momento que cair esse Data Center principal, um Data Center secundário passa a funcionar.

 

Existe segurança em um ambiente de nuvem?

Muita! Existe muita segurança em ambiente de nuvem. Existe replicação, existe alta disponibilidade. A falha de segurança é dos administradores que usam esse ambiente.

O mercado de computação em nuvem está em voga. A maioria das empresas estão jogando suas aplicações neste ambiente.

 

O Engenheiro de Software é fundamental

 

Aí é onde entra a importância do papel do Engenheiro de Software preparar suas aplicações para este ambiente em nuvem, entender as arquiteturas de microsserviços, entender como funciona os recursos de container, docker e as estruturas de kubernets.

A dica é: Preparem as suas aplicações para esse ambiente, isso é extremamente importante.

 

O assunto desse iCEV Explica foi produzido pelo professor Me. Luciano Aguiar, do curso de Engenharia de Software.

13 out
The $150 Million Machine Keeping Moore’s Law Alive

ASML’s next-generation extreme ultraviolet lithography machines achieve previously unattainable levels of precision, which means chips can keep shrinking for years to come.

Each machine is roughly the size of a bus. Shipping their components requires 40 freight containers, three cargo planes, and 20 trucks.PHOTOGRAPH: ASML

INSIDE A LARGE clean room in rural Connecticut, engineers have begun constructing a critical component for a machine that promises to keep the tech industry as we know it on track for at least another decade.

The machine is being built by ASML, a Dutch company that has cornered the market for etching the tiniest nanoscopic features into microchips with light.

ASML introduced the first extreme ultraviolet (EUV) lithography machines for mass production in 2017, after decades spent mastering the technique. The machines perform a crucial role in the chipmaking ecosystem, and they have been used in the manufacture of the latest, most advanced chips, including those in new iPhones as well as computers used for artificial intelligence. The company’s next EUV system, a part of which is being built in Wilton, Connecticut, will use a new trick to minimize the wavelength of light it uses—shrinking the size of features on the resulting chips and boosting their performance—more than ever before.

The current generation of EUV machines are already, to put it bluntly, kind of bonkers. Each one is roughly the size of a bus and costs $150 million. It contains 100,000 parts and 2 kilometers of cabling. Shipping the components requires 40 freight containers, three cargo planes, and 20 trucks. Only a few companies can afford the machines, and most of them go to the world’s big three leading-edge chipmakers: the world’s leading foundry, Taiwan-based TSMC, as well as Samsung, in South Korea, and Intel.

“It is really an incredible machine,” says Jesús del Alamo, a professor at MIT who works on novel transistor architectures. “It’s an absolutely revolutionary product, a breakthrough that is going to give a new lease of life to the industry for years.”

In Connecticut, a giant hunk of aluminum has been carved into a frame that will eventually hold a mask, or “reticle,” that moves with nanometer precision while reflecting a beam of extreme ultraviolet light. The light pinballs off several mirrors shaped and polished with astonishing precision to etch features just a few dozen atoms in size onto future computer chips.

The finished component will be shipped to Veldhoven in the Netherlands by the end of 2021, and then added to the first prototype next-generation EUV machine by early 2022. The first chips made using the new systems may be minted by Intel, which has said it will get the first of them, expected by 2023. With smaller features than ever, and tens of billions of components each, the chips that the machine produces in coming years should be the fastest and most efficient in history.

ASML’s latest EUV machine promises to keep alive an idea that has come to symbolize the march of progress—not just in chipmaking, but in the tech industry and the economy at large.

EUV system
Only a handful of companies can afford ASML’s giant machine, and China has been blocked from purchasing them altogether. PHOTOGRAPH: ASML
FEATURED VIDEO

Computer Scientist Explains Machine Learning in 5 Levels of Difficulty

 

In 1965, Gordon Moore, an electronics engineer and one of the founders of Intel, wrote an article for the 35th anniversary issue of Electronics, a trade magazine, that included an observation that has since taken on a life of its own. In the article, Moore noted that the number of components on a silicon chip had roughly doubled each year until then, and he predicted the trend would continue.

A decade later, Moore revised his estimate to two years rather than one. The march of Moore’s law has come into question in recent years, although new manufacturing breakthroughs and chip design innovations have kept it roughly on track.

EUV uses some extraordinary engineering to shrink the wavelength of light used to make chips, and it should help continue that streak. The technology will be crucial for making more advanced smartphones and cloud computers, and also for key areas of emerging technology such as artificial intelligence, biotechnology, and robotics. “The death of Moore’s law has been greatly exaggerated,” del Alamos says. “I think it’s going to go on for quite some time.”

Amid the recent chip shortage, triggered by the pandemic’s economic shock waves, ASML’s products have become central to a geopolitical struggle between the US and China, with Washington making it a high priority to block China’s access to the machines. The US government has successfully pressured the Dutch not to grant the export licenses needed to send the machines to China, and ASML says it has shipped none to the country.

“You can’t make leading-edge chips without ASML’s machines,” says Will Hunt, a research analyst at Georgetown University studying the geopolitics of chipmaking. “A lot of it comes down to years and years of tinkering with things and experimenting, and it’s very difficult to get access to that.”

Each component that goes into an EUV machine is “astonishingly sophisticated and extraordinarily complex,” he says.

Making microchips already requires some of the most advanced engineering the world has ever seen. A chip starts out life as a cylindrical chunk of crystalline silicon that is sliced into thin wafers, which are then coated with layers of light-sensitive material and repeatedly exposed to patterned light. The parts of silicon not touched by the light are then chemically etched away to reveal the intricate details of a chip. Each wafer is then chopped up to make lots of individual chips.

Shrinking the components on a chip remains the surest way to squeeze more computational power out of a piece of silicon because electrons pass more efficiently through smaller electronic components, and packing more components into a chip increases its capacity to compute.

Lots of innovations have kept Moore’s law going, including novel chip and component designs. This May, for instance, IBM showed off a new kind of transistor, sandwiched like a ribbon inside silicon, that should allow more components to be packed into a chip without shrinking the resolution of the lithography.

But reducing the wavelength of light used in chip manufacturing has helped drive miniaturization and progress from the 1960s onwards, and it is crucial to the next advance. Machines that use visible light were replaced by those that use near-ultraviolet, which in turn gave way to systems that employ deep-ultraviolet in order to etch ever smaller features into chips.

A consortium of companies including Intel, Motorola, and AMD began studying EUV as the next step in lithography in the 1990s. ASML joined in 1999, and as a leading maker of lithography technology, sought to develop the first EUV machines. Extreme ultraviolet lithography, or EUV for short, allows a much shorter wavelength of light (13.5 nanometers) to be used, compared with deep ultraviolet, the previous lithographic method (193 nanometers).

But it has taken decades to iron out the engineering challenges. Generating EUV light is itself a big problem. ASML’s method involves directing high-power lasers at droplets of tin 50,000 times per second to generate high-intensity light. Lenses absorb EUV frequencies, so the system uses incredibly precise mirrors coated with special materials instead. Inside ASML’s machine, EUV light bounces off several mirrors before passing through the reticle, which moves with nanoscale precision to align the layers on the silicon.

“To tell you the truth, nobody actually wants to use EUV,” says David Kanter, a chip analyst with Real World Technologies. “It’s a mere 20 years late and 10X over budget. But if you want to build very dense structures, it’s the only tool you’ve got.”

12 out
Como o Data Mining pode ajudar no seu negócio?

Se a sua empresa gera um grande volume de dados e quer usá-los a favor do seu negócio, é bem importante saber o que é Data Mining.

Em tradução literal, Data Mining significa mineração de dados. Consiste em usar a tecnologia para realizar a análise de grandes quantidades de dados, a fim de identificar padrões consistentes e extrair insights para aprimoramento dos processos.

O Data Mining pode ser utilizado em diferentes segmentos e vertentes dentro de um mesmo negócio, por exemplo, vendas, marketing, finanças etc.

Ao fazer a mineração de dados e transformá-los em informações, é possível tomar decisões mais assertivas e ter insights que podem ajudar no crescimento da empresa.

O que é Data Mining?

Data Mining, em português, mineração de dados, é um processo pelo qual se realiza a análise de grandes quantidades de dados. 

O Data Mining permite filtrar do Big Data informações que realmente serão úteis para o propósito que pretende alcançar.

Em outras palavras, a mineração de dados identifica padrões, que literalmente são “minerados do mar de dados” gerados por uma empresa.

As informações extraídas do Data Mining são importantes aliadas para tomada de decisões em um negócio. Com essa base, é possível identificar problemas e também diversas oportunidades de negócios e de crescimento.

Para que serve o Data Mining?

Mas saber o que é Data Mining consiste também em entender para que esse processo serve.

O Data Mining serve para transformar dados brutos em informações de valor para uma empresa. 

A sua alta capacidade analítica, que é determinada por algoritmos de Inteligência Artificial e de Machine Learning, faz conexões e correlações entre os dados, identifica padrões e anomalias.

Uma vez que os dados são transformados em informações, essas podem servir como base para o planejamento estratégico do seu negócio.

O Data Mining serve, por exemplo, para identificar padrões de comportamento dos consumidores.

Com essa resposta nas mãos, a sua empresa pode criar uma série de ações para aprimorar o relacionamento com os clientes, tais como, otimizar o atendimento, melhorar as campanhas de marketing, entre outras.

Quais as etapas do Data Mining?

A explicação do que é Data Mining só fica completa quando se entende as etapas que compõem esse processo, que são:

  1. Definição do objetivo
  2. Seleção dos dados
  3. Limpeza dos dados
  4. Aplicação das técnicas de mineração
  5. Avaliação dos resultados obtidos
  6. Utilização das informações

1. Definição do objetivo

A primeira etapa do Data Mining consiste em definir qual o objetivo do processo. Ou seja, é alinhar essa busca por informações aos objetivos estratégicos da empresa.

Para encontrar uma boa definição você pode, por exemplo, se basear em metas e indicadores que precisam ser melhorados.

2. Seleção dos dados

Com base no que foi determinado da etapa anterior, agora é preciso definir de onde os dados serão extraídos, ou seja, de qual fonte eles serão retirados.

É possível, por exemplo, fazer uma análise do CRM utilizado na sua empresa e extrair os dados gerados para usar como base nas suas tomadas de decisão.

3. Limpeza dos dados

Uma vez definida a origem, que deve estar alinhada com o objetivo, chega o momento de fazer a limpeza dos dados.

De uma maneira simples, consiste em selecionar apenas os dados condizentes com o propósito em questão, eliminando aqueles que não têm potencial para trazer os resultados pretendidos.

Lembre-se que isso tudo será feito com a ajuda da tecnologia. Considerando que o Data Mining visa analisar grandes quantidades de dados, isso não é possível de ser feito de outra forma, ou seja, apenas por interação humana.

4. Aplicação das técnicas de mineração

Esta fase consiste na aplicação de técnicas de mineração, que são metodologias baseadas em algoritmos que vão fazer a identificação de padrões, correlações e outras análises dos dados.

As técnicas de mineração são variadas. Entre as que podem ser aplicadas estão a regra de associação, redes neurais artificiais, árvores de decisão etc.

5. Avaliação dos resultados obtidos

Agora os dados foram transformados em informações. Com isso, é chegado o momento de fazer uma boa avaliação do que foi extraído.

Analisando as informações geradas pela mineração de dados é possível, por exemplo, traçar planos estratégicos para aumentar o nível de satisfação dos clientes e, com isso, contribuir para o crescimento da empresa.

6. Utilização das informações

Feita a avaliação do que foi extraído no processo de Data Mining, a última etapa consiste em usar os insights gerados, transformá-los em ações e, dessa forma, solucionar problemas e/ou aprimorar processos.

Sobre isso, é importante sempre manter o foco no objetivo principal que foi definido na primeira etapa, pois a mineração de dados realizada foi baseada nessa definição.

Quais técnicas podem ser utilizadas no Data Mining?

Na quarta etapa deste artigo sobre o que é Data Mining, mencionamos a aplicação de técnicas de mineração.

A fim de deixar esse conceito mais claro, vamos explanar um pouco algumas das técnicas que costumam ser mais utilizadas:

  • Regra de associação: faz a associação entre dois ou mais itens e contribui para encontrar padrões e tendências;
  • Redes neurais artificiais: técnica usada para identificar as relações entre os dados;
  • Árvores de decisão: gera inúmeras possibilidades de escolha para uma mesma questão a ser resolvida.

Como o Data Mining pode ajudar uma empresa?

Agora que você sabe o que é Data Mining e as etapas que compõem esse processo, é bem importante conhecer em quais pontos a mineração de dados pode ajudar a sua empresa.

O Data Mining pode ser visto como um importante diferencial competitivo. Entre as diversas possibilidades, esse processo ajuda a:

  • melhorar os serviços prestados tendo como base o comportamento dos clientes;
  • ter bases mais concretas para tomada de decisões;
  • tirar proveito maior dos dados que são gerados pela sua empresa;
  • identificar novas oportunidades de negócios;
  • fazer previsões de mercado.

Em quais áreas a mineração de dados pode ser utilizada? Exemplos de Data Mining

O Data Mining pode ser utilizado em diferentes segmentos, ou departamentos dentro de uma mesma empresa.

Quanto aos ramos de atuação, pode ser utilizado, por exemplo, na área de segurança pública, saúde, pesquisas científicas, telecomunicações, finanças, agricultura etc.

Na sua empresa, você pode utilizar a mineração de dados para melhorar os processos de vendas, marketing, captação de clientes, telemarketing, atendimento ao cliente etc.

 

Blog da Zendesk

27 set
Anatel marca leilão do 5G para 4 de novembro

Nesta última sexta-feira (24), o conselho diretor da Agência Nacional de Telecomunicações (Anatel) aprovou as regras gerais para a implementação do 5G no Brasil e marcou a data do leilão da tecnologia para o dia 4 de novembro.

Na reunião extraordinária foram discutidos os últimos ajustes para a licitação das radiofrequências 700 MHz, 2,3 GHz, 3,5 GHz e 26 GHz. Este será o maior leilão já realizado pela instituição.

Anatel marca leilão do 5G para 4 de novembro.

A decisão prevê que as operadoras envolvidas comecem a oferecer o sinal de 5G até 31 de julho de 2022. Os prazos estipulados são os seguintes:

  • 5G disponível nas capitais brasileiras até 31 de julho de 2022;
  • Em cidades com mais de 500 mil habitantes até 31 de julho de 2025;
  • Em municípios com mais de 200 mil habitantes até 31 de julho de 2026;
  • Cidades com mais de 100 mil habitantes até 31 de julho de 2027;
  • Enquanto nas com mais de 30 mil habitantes até 31 de julho de 2028.

Durante a reunião, o conselho da Anatel afirmou que a Entidade Administradora da Conectividade de Escolas (EACE) – órgão que será criado com funcionários dos Ministérios da Educação e Comunicações – deverá acompanhar a obrigação das operadoras fornecerem internet para as escolas públicas do país.

O processo do edital foi iniciado em 12 de novembro de 2020, quando encaminhado para deliberação pelo Conselho Diretor. Em 25 de fevereiro de 2021, a proposta foi aprovada pelo colegiado e, em seguida, encaminhada à apreciação do Tribunal de Contas da União (TCU) – que deliberou sua aprovação com sete votos a favor em 25 de agosto de 2021.

Papel das operadoras

As operadoras de telefonia que comprarem as radiofrequências devem seguir uma série de exigências. Os arrematadores das frequências 3,5 GHz, por exemplo, deverão se responsabilizar pela criação da rede privada de 5G do governo federal que será utilizada pelos órgãos públicos, no entanto, a Anatel ampliou o prazo para o feito.

Além disso, as operadoras responsáveis por essa que será a mais concorrida das frequências por ser a mais utilizada no mundo e que afeta diretamente o consumidor final, também devem:

  • Expandir 13 mil quilômetros de cabos de fibra ótica nos leitos dos reios da região Norte;
  • Realizar a troca da faixa de 3,5 GHz que é responsável pela transmissão de TV via parabólica, migrando os usuários para banda Ku e distribuindo kits para conversão.

O restante de todas as operadoras que participarem do leilão do 5G devem investir em instalação de rede 4G em munícipios com mais de 600 habitantes, ampliar a cobertura nas estradas do país e fomentar o roaming nacional obrigatório.

Publicado por Olhar Digital 

13 set
5 dicas de como ser um bom programador

Dentro da área de tecnologia, uma das profissões que mais cresce é a de programador. Afinal, eles são fundamentais para o desenvolvimento das empresas do século XXI, onde vivemos grandes transformações digitais e acompanhar a tecnologia é primordial para empreender com sucesso.

O desenvolvedor é o responsável por organizar códigos e linguagens de programação dentro da tecnologia da informação. Isto é, uma série de automatizações que chamamos de programas ou sistemas de computador (software), facilitando as operações humanas na atualidade.

O que o mercado esperam de um desenvolvedor?

Iniciativa, independência e perseverança para aprender e resolver problemas de maneira autodidata. Essas características, além das habilidades técnicas, também são valorizadas pelo mercado.

Além disso, os profissionais de tecnologia não precisam ficar restritos à área. É possível aproveitar para explorar outros conhecimentos que possam contribuir com o seu trabalho, como gestão de negócios e design.

Confira as dicas de como ser um bom programador:

Dica 1: Não pare de aprender

Não ache que você vai aprender a programar somente no trabalho, bons programadores sempre procuram aprender algo novo, seja uma nova linguagem, uma nova técnica, uma nova ferramenta, ou outra coisa.

Procure interagir com outros desenvolvedores, seja em um curso, projeto paralelo ou eventos, pois é sempre bom ter uma visão diferente sobre o assunto programação.

Tenha fome e sede de conhecimento pois nosso cérebro precisa de estímulos constantes e tendemos ficar estagnados, achando que estamos dominando os assuntos que nos cercam no dia a dia.

 

Dica 2: Pense muito antes de começar a escrever seu código

Tenha um raciocínio mais analítico, pense em como fazer a sua tarefa e em todos os impactos que sua alteração pode causar em vez de sair codificando.

Planeje tudo o que você tem que fazer para entregar sua tarefa e faça um checklist de tudo o que você precisa fazer e testar para garantir que você não entregue sua tarefa pela metade ou com muitos bugs.

Dica 3: Escreva códigos simples

Bons programadores escrevem códigos para que outros programadores consigam ler, ou seja, faça isso o mais simples e direto que você conseguir.

Não escreva código duplicado, sempre volte no que você está codificando e tente identificar partes repetidas e extraia essas partes para novos métodos.

De nome as variáveis para identificar o que elas fazem e não para identificar os tipos que elas são.

Escreva métodos pequenos e evite usar parâmetros complexos para que eles possam ser testáveis com testes unitários e de nomes que significam o que realmente eles fazem.

Dica 4: Saiba pedir ajuda

Não fique com medo de pedir ajuda, pois seu colega ao lado já pode ter resolvido o problema que você tem no momento. Mas cuidado para não ficar parando seu colega muitas vezes, pois você pode atrapalhar sua concentração e sua produtividade.

Antes de pedir ajuda, certifique-se que você esgotou a maioria das soluções que você encontrou, depure cada linha do código para entender como ele funciona e se for um assunto que você não domina procure estudar sobre ele nas horas vagas.

 

Dica 5: Compartilhe seu conhecimento

Não seja egoísta mantendo o conhecimento todo para você, você não vai colocar seu emprego em perigo se seus colegas melhorarem, pelo contrário, você pode acabar se tornando um ponto de referência na sua equipe.

Crie uma cultura de ajudar os outros, além de trabalhar melhor em equipe você vai melhorar o conhecimento dos outros.

 

Fonte: Fábrica de Código

08 set
Menino de 12 anos ganha R$ 2 milhões com NFTs de baleias

Benyamin Ahmed criou uma coleção de mais de 3 mil imagens de baleias e vendeu tokens digitais delas.

Um menino de 12 anos, morador de Londres, no Reino Unido, ganhou cerca de £ 290 mil (aproximadamente R$ 2 milhões) durante as férias escolares, depois de criar uma série de obras de arte pixeladas chamadas Weird Whales e vender como NFTs (“token não fungível”, em tradução livre) .

Com os NFTs, uma obra de arte pode ser “tokenizada” para criar um certificado digital de propriedade que pode ser comprado e vendido.

Eles geralmente não fornecem ao comprador a obra de arte propriamente dita ou seus direitos autorais.

Benyamin Ahmed está mantendo seus ganhos na forma de Ethereum — a criptomoeda em que foram vendidos.

Isso significa que o valor pode aumentar ou diminuir — e não há respaldo das autoridades se a carteira digital em que ele guarda o montante for hackeada ou comprometida.

Ele nunca teve uma conta bancária tradicional.

Extremamente orgulhoso

Os colegas de escola de Benyamin ainda não sabem de sua recém-adquirida cripto fortuna, embora ele tenha feito vídeos no YouTube sobre seu hobby, que ele gosta tanto quanto natação, badminton e taekwondo.

“Meu conselho para outras crianças que talvez queiram entrar neste espaço é não se obrigar a fazer codificação, talvez porque haja pressão dos colegas — assim como se você gosta de cozinhar, cozinhe, se gostar de dançar, dance, apenas faça o melhor que puder”, diz ele.

O pai de Benyamin, Imran, um desenvolvedor de software que trabalha com finanças tradicionais, incentivou Benyamin e seu irmão, Yousef, a começar a codificar aos cinco e seis anos.

Os meninos tiveram a vantagem de contar com uma forte rede de especialistas em tecnologia para pedir conselhos e ajuda — mas o pai é extremamente orgulhoso deles.

“Era meio que um exercício divertido — mas percebi muito cedo que eles eram muito receptivos e muito bons nisso”, conta Imran.

“Então começamos a levar um pouco mais a sério — e agora é todo santo dia … mas você não pode forçar essas coisas, não pode dizer: ‘Vou aprender codificação em três meses’.”

Os meninos faziam 20 ou 30 minutos de exercícios de codificação por dia — inclusive nos feriados, diz ele.

Projeto Weird Whales de Benyamin Ahmed, que virou NFT — Foto: Benyamin Ahmed via BBC

Weird Whales é a segunda coleção de arte digital de Benyamin, lançada na sequência de uma coleção anterior inspirada no videogame Minecraft que vendeu menos.

Desta vez, ele se inspirou em uma imagem bem conhecida de um meme de baleia pixelada e em um estilo popular de arte digital — mas usou seu próprio programa para criar a coleção de 3.350 baleias do tipo emoji.

“Foi interessante ver todas elas nascerem, à medida que apareciam na minha tela, sendo geradas lentamente”, diz ele.

Benyamin já está trabalhando em sua terceira coleção, agora com o tema de super-heróis.

Ele também gostaria de fazer um “jogo subaquático” com as baleias.

“Seria incrível”, diz ele.

Imran tem “100% de certeza” de que seu filho não infringiu a lei de direitos autorais — ele consultou advogados para “auditar” seu trabalho e obter conselhos sobre como registrar seus próprios designs.

O mundo da arte está dividido, no entanto, sobre a moda dos NFTs.

Os artistas dizem que eles são uma fonte adicional de receita útil. E há vários casos de vendas incrivelmente altas.

Mas também há ceticismo sobre até que ponto os NFTs são um investimento realista de longo prazo.

Charles Allsopp, ex-leiloeiro da renomada casa de leilões Christie’s, disse à BBC News que comprá-los “não faz sentido”.

27 ago
Tesla anuncia robô e ele é projetado para ser à prova de revolta das máquinas

No evento Tesla AI Day a versão deste ano da conferência anual que antes já abordou, entre outras, veículos autônomos. Nele, o CEO Elon Musk surpreendeu ao anunciar a entrada de sua montadora de automóveis num ramo completamente diferente de negócios: robôs.

Do tipo humanóide, como os da Boston Dynamics. Mas menos assustadores. Ou nem tanto, julgue por si mesmo:

Por que uma fábrica de carros decide criar robôs? Porque pode, basicamente. “O robô não é motivado especificamente por necessidades industriais”, afirmou Musk na apresentação. “Só estamos obviamente fazendo as peças que são necessárias para um robô humanóide útil, então acho que provavelmente devíamos fazê-lo. E, se não fizermos nós, outros farão, então acho que devemos fazer e ter certeza que é seguro.”

Robô da Tesla se baseia em carros

Talvez seja só o famoso marketing muskiano. Ou talvez tenham mesmo algo na manga, porque a base toda do projeto, segundo Musk, são os algoritmos e componentes já usados em carros.

O robô terá uma altura de 1,76 metros e peso de 56 kg, construído em um material de liga leve. A cabeça será equipada com câmeras de piloto automático, que já estão sendo usadas pelos veículos da Tesla para detectar o ambiente. Oito no total.

Essas câmeras, junto com 40 atuadores eletromecânicos espalhados pelo Tesla Bot, serão alimentadas pelo sistema Full Self-Driving (FSD) da empresa. Também terá um display para mostrar informações na cabeça, onde ficariam os olhos. Ao estilo Daft Punk.

slide de apresentação do Tesla Bot

O plano é que seja capaz de realizar tarefas inseguras, repetitivas ou enfadonhas. Musk deu um exemplo banal, fazer compras em uma loja. O CEO também disse (agora certamente fazendo marketing muskiano) que, no futuro, fazer tarefas físicas “será uma escolha”.

Medo da Skynet

O que Musk quis dizer por “ter certeza que é seguro”? O robô da Tesla teria várias características para evitar se voltar contra humanos. Num cenário de invasão das máquinas, como a comandada pela Skynet na série Exterminador do Futuro.

Está sendo projetado para ser amigável e para ser “dominado” por humanos fisicamente. Isto é: pra você ganhar dele numa briga. E terá também uma velocidade máxima limitada a 8 km/h. Segundo Musk, a ideia neste caso é facilitar para que as pessoas possam sair correndo dele.

Outro projeto tratado no Tesla AI Day tem algo de Skynet em si: é o Dojo, um supercomputador destinado a treinar carros (e, se procede tudo acima, robôs) navegar pelas ruas da cidade sem ajuda humana. Previsto para estar operacional no próximo ano, o Dojo será alimentado por centenas de chips D1 projetados pela Tesla.

Publicado por Olhar Digital 

23 ago
Top 8 Machine Learning e Deep Learning Frameworks

Machine Learning pode ser um pesadelo sem algum tipo de framework. Você não pode criar tudo do zero, especialmente se estiver em um ambiente de negócios onde os prazos de entrega de projetos são curtos. Mesmo que você queira (e se quiser, comente aqui e conte-nos!), na maioria dos casos, você não tem tempo. Você precisa de um framework para ajudar a dar vida à sua visão. Aqui estão os Top 8 Machine Learning e Deep Learning Frameworks projetados para ajudar a colocar esses projetos em prática. E, como sempre, informe-nos se o seu  framework preferido não estiver na lista.

Scikit-Learn

O Scikit-Learn é uma façanha da comunidade Python. Ele lida com o aprendizado supervisionado e não supervisionado e possui documentação robusta para todas as perguntas possíveis que você tiver. Se você conhece Python, esse framework é mandatório no seu arsenal de ferramentas.

É capaz de trabalhar em várias tarefas sem sacrificar a velocidade. O Spotify o usa, assim como o Evernote. Ele vem com API e é altamente eficiente para mineração de dados. Se você está construindo modelos preditivos, o Scikit-Learn é uma opção fantástica. Esse framework é abordado em detalhes nos cursos da Formação Cientista de Dados.

TensorFlow

O TensorFlow continua sendo um gigante no setor, com bibliotecas de código aberto e suporte para classificações, regressões e redes neurais. É compatível com CPU e GPU e é executado em dispositivos móveis para aqueles que precisam de flexibilidade.

O DeepMind do Google usa o TensorFlow para pesquisa e as opções de produção e implantação escalonáveis ​​o tornam um padrão. Embora seja um pouco denso para o aprendizado de máquina, se você estiver usando um híbrido de aprendizado de máquina e aprendizado profundo e disposto a dedicar tempo ao treinamento, o TensorFlow é uma opção robusta. Há um capítulo inteiro dedicado ao TensorFlow no curso gratuito Python Fundamentos Para Análise de Dados.

PyTorch

A alternativa do Facebook ao TensorFlow do Google é um framework de aprendizado de máquina mais leve e flexível criado para oferecer eficiência de ponta. O PyTorch é acessível a quem conhece Python e, para fins de pesquisa em Machine Learning, é mais popular que o TensorFlow.

Possui excelente documentação da comunidade e oferece recursos de edição fáceis e rápidos. É um pouco mais lento no lado da produção, mas é facilmente corrigido com um servidor de API. Ele fornece gráficos dinâmicos (em oposição aos gráficos estáticos do TensorFlow) e é de código aberto. Usamos o PyTorch na Formação IA e Formação IA Aplicada à Medicina.

CAFFE

O CAFFE pode ser mais popular no aprendizado profundo, mas se você estiver concentrado em plataformas como o celular, ele poderá fornecer uma alternativa flexível ao TensorFlow. O Facebook usa o CAFFE 2 em seu aplicativo móvel, por exemplo.

As restrições computacionais podem tornar alguns frameworks muito volumosos, mas o CAFFE é rápido e excelente para reconhecimento visual. Você precisará estar familiarizado com a linguagem C ++, portanto, desenvolvedores e engenheiros de software, esse pode ser o seu ponto de partida para os modelos de aprendizado de máquina.

Keras

Outro que preenche uma lacuna entre aprendizado de máquina e aprendizado profundo, o Keras é uma estrutura simples de aprendizado de máquina com uma interface simplista. Ele fornece prototipagem rápida e trabalha com o TensorFlow. É simples de aprender e dá aos desenvolvedores que trabalham com Python uma boa base para o aprendizado profundo.

Seu uso principal é em classificação. Outras funcionalidades como tradução, reconhecimento de fala e marcação, também fazem parte de seu uso.

Firebase ML Kit

Uma oferta relativamente nova, o Firebase ML Kit oferece aos desenvolvedores uma opção multiplataforma capaz de lidar com reconhecimento de texto, rotulagem de imagens e classificação de objetos. Possui modelos pré-treinados e permite criar projetos minimamente codificados.

O Google o introduziu para ajudar os desenvolvedores a integrar modelos de aprendizado de máquina em aplicativos móveis sem muita experiência técnica. Como essa é uma função cheia de problemas e dificuldades, o design do Google ajuda a reduzir os retrocessos que os desenvolvedores inexperientes precisam fazer.

MLR3

Todos os frameworks anteriores são para Linguagem Python. Mas temos aqui um representante para a Linguagem R. Um framework leve, fácil de usar e com diversas funcionalidades que agilizam a criação e experimentação de modelos de Machine Learning. E como é orientado a objetos, sua curva de aprendizado pode ser menor.

Caret

Outro representante da Linguagem R (e amplamente usado na Formação Cientista de Dados), o Caret vem crescendo bastante na comunidade de Cência de Dados. Sua principal vantagem é que possui funções para todo o processo de Machine Learning, desde a separação dos dados em amostras de treino e teste, até o treinamento e avaliação do modelo.

Decidindo Sobre Qual Framework Usar

A comunidade de Ciência de Dados tornou seus projetos de aprendizado de máquina muito mais confortáveis com frameworks ricos para ajudá-lo a alcançar seus objetivos finais. Você não precisa começar do zero, a menos que queira, e o tempo economizado vai diretamente para o seu tempo de inovação. Se você está chegando agora ao universo da Ciência de Dados, o Scikit-Learn é a opção recomendada para começar.

A lista não é exaustiva, mas esses frameworks são opções gratuitas e viáveis para o desenvolvimento de modelos de Machine Learning e sistemas de Inteligência Artificial. Se você já é mestre em aprendizado de máquina, ajude-nos nos comentários, descrevendo os frameworks que você usa para ajudar a garantir que seus projetos saiam do papel sem problemas. Todos nós podemos aprender pelo exemplo e com uma comunidade tão ricamente colaborativa.

19 jul
Usando Redes Neurais Recorrentes na Sugestão de Palavras

Você já teve curiosidade em saber como o Google prevê qual a próxima palavra que você vai digitar em uma pesquisa?

Isso é feito através de uma tarefa conhecida como Next Word Prediction ou Language Modelling. Essa tarefa é uma das mais básicas do Processamento de Linguagem Natural (PLN), e também é usada em teclados de smartphone, e em muitas outras aplicações, como as que envolvem sumarização de texto, por exemplo.

Neste post, apresento um pequeno tutorial de como fazer um preditor de próximas palavras utilizando Redes Neurais implementadas com a ferramenta TensorFlow.

Redes Neurais Recorrentes

Redes Neurais são modelos matemáticos usados na computação para a aprendizagem de máquina e cujo objetivo é simular o sistema nervoso de um animal para “aprender” coisas úteis para uma tarefa. Por exemplo, aprender como uma palavra pode ser traduzida para outro idioma é útil para um sistema de tradução automática. Ou para um transcritor, como o nosso Transcritor Élfico.

Essas redes são formadas por neurônios artificiais interconectados, que computam valores de entrada para fornecer uma saída, simulando o funcionamento de um neurônio biológico. Esses neurônios são unidades de processamento que interagem entre si e estão organizados em camadas. É da interação entre os neurônios e as camadas que vem a capacidade de inteligência da Rede Neural.

Quando o conteúdo é passado mais de uma vez pela rede neural para reforçar o aprendizado, ela passa a ser chamada de Rede Neural Recorrente. O seu uso leva em consideração que o que é aprendido por um neurônio biológico não deve ser esquecido, mas reutilizado para “refinar”o aprendizado.

Fonte da imagem: https://leonardoaraujosantos.gitbooks.io/artificial-inteligence/content/recurrent_neural_networks.html

Vamos ao código

Redes Neurais Recorrentes podem ser implementadas com a ferramenta TensorFlow, dentre outras, que é uma biblioteca de software para aprendizagem de máquina mantida pelo Google. Essa ferramenta fornece uma interface que torna a construção de aplicações de aprendizagem de máquina mais simples.

No nosso exemplo, nós usaremos a API Keras, que tem o objetivo de reduzir o esforço cognitivo necessário para a construção de modelos de aprendizagem de máquina. Portanto, vamos começar instalando essa API e outras dependências do nosso projeto:

pip install tensorflow
pip install keras
pip install numpy
pip install matplotlib
pip install nltk
pip install pickle
This Gist brought to you by gist-it.view rawREADME.md

Base de treinamento

Com tudo instalado, o que precisamos agora é preparar a nossa base de treinamento, que é de onde a nossa rede neural vai aprender a predizer a próxima palavra.

Nós usaremos um corpus (documento de texto) em português brasileiro, extraído a partir de notícias do site da Revista Pesquisa FAPESP. Você deve baixar o corpus usando este link e salvá-lo na pasta data, ou executar a primeira linha do trecho de código abaixo no seu terminal. Depois, precisamos extrair os arquivos baixados (segunda linha), e extrair a parte do corpus que é em português.

        wget -P ./data/ "http://www.nilc.icmc.usp.br/nilc/tools/fapesp-corpora.tar.gz"
        tar -xvzf  ./data/fapesp-corpora.tar.gz -C data
        tar -xvzf ./data/fapesp-corpora/corpora/pt.tgz -C data/fapesp-corpora/corpora/
This Gist brought to you by gist-it.view rawmakefile

O script Python a seguir tem a função de compilar os arquivos do corpus em um único TXT com texto plano. Nele é possível definir a quantidade de arquivos serão utilizados, uma vez que o corpus é muito grande e, dependendo da capacidade de processamento da máquina, usar ele por inteiro poderia fazer o modelo levar muito tempo para ser treinado. De todo modo, fica ao seu critério. Se quiser utilizar o corpus inteiro, só apagar o trecho [:FILES_NUMBER] do script.

from os import listdir
from os.path import isfile, join
dataset_path = './data/fapesp-corpora/corpora/pt/data'
onlyfiles = [f for f in listdir(dataset_path) if isfile(join(dataset_path, f))]

FILES_NUMBER = 20

trainin_text = ''
for file_ in onlyfiles[:FILES_NUMBER]:
    trainin_text += open(dataset_path+"/"+file_).read()

training_corpus = open('./data/training_corpus.txt', 'w')
training_corpus.write(trainin_text)

Treinamento

Primeiro vamos importar as bibliotecas necessárias no treinamento:

import numpy as np
from nltk.tokenize import RegexpTokenizer
from keras.models import Sequential, load_model
from keras.layers import LSTM
from keras.layers.core import Dense, Activation
from keras.optimizers import RMSprop
import matplotlib.pyplot as plt
import json
import pickle
This Gist brought to you by gist-it.view rawtrain.py

Depois, carregamos a base de treinamento.

path = 'data/training_corpus.txt'
text = open(path).read().lower()
This Gist brought to you by gist-it.view rawtrain.py

Então, utilizamos um tokenizador para dividir o corpus em tokens, ou seja, em palavras.

tokenizer = RegexpTokenizer(r'\w+')
words = tokenizer.tokenize(text)
This Gist brought to you by gist-it.view rawtrain.py

Em seguida, precisamos ter a lista das palavras únicas presentes no corpus. Além disso, precisamos de um dicionário (<chave: valor>) com cada palavra da lista de palavras únicas como chave e sua posição correspondente como valor (e.g., <clube: 128 , dos: 129, …>).

unique_words = np.unique(words)
print("Qtd. de palavras únicas:", len(unique_words))
unique_word_index = dict((c, i) for i, c in enumerate(unique_words))
This Gist brought to you by gist-it.view rawtrain.py

Engenharia de Features

Em Aprendizagem de Máquina features são características que descrevem um determinado recurso de aprendizagem. Por exemplo, se você construir um modelo para identificar objetos em fotografias, é natural que as features sejam características desses objetos (cor, tamanho, forma, etc.).

Em se tratando de texto, as features podem ser informações sobre como as palavras estão dispostas nas frases, ou como elas se relacionam, etc. No nosso caso, usaremos como features as palavras que antecedem aquela que desejamos predizer. Para isso, definimos a variável SEQUENCE_LENGTH, que determina a quantidade de palavras anteriores que usaremos na predição. Além disso, criamos uma lista vazia chamada prev_words, onde as palavras anteriores serão armazenadas, e uma lista next_words para as suas “próximas palavras” correspondentes. Preenchemos essas listas fazendo um loop em um intervalo de 3 menor que o comprimento das palavras.

SEQUENCE_LENGTH = 3
prev_words = []
next_words = []
for i in range(len(words) - SEQUENCE_LENGTH):
    prev_words.append(words[i:i + SEQUENCE_LENGTH])
    next_words.append(words[i + SEQUENCE_LENGTH])
This Gist brought to you by gist-it.view rawtrain.py

Depois, criamos dois arrays utilizando a biblioteca numpy: X para as features e Y para os rótulos correspondentes, ou seja, as próximas palavras.

X = np.zeros((len(prev_words), SEQUENCE_LENGTH, len(unique_words)), dtype=bool)
Y = np.zeros((len(next_words), len(unique_words)), dtype=bool)
for i, each_words in enumerate(prev_words):
    for j, each_word in enumerate(each_words):
        X[i, j, unique_word_index[each_word]] = 1
    Y[i, unique_word_index[next_words[i]]] = 1
This Gist brought to you by gist-it.view rawtrain.py

Esses arrays podem parecer estranhos à primeira vista, mas vale destacar que esse tipo de encoding, conhecido como One Hot Encoding torna a aprendizagem e a predição mais eficiente, como explicado no vídeo abaixo (ative as legendas):

O nosso modelo

Nós usamos um modelo LSTM com uma única camada e 128 neurônios, uma camada de conexão (Dense), e a função softmax para ativação.

model = Sequential()
model.add(LSTM(128, input_shape=(SEQUENCE_LENGTH, len(unique_words))))
model.add(Dense(len(unique_words)))
model.add(Activation('softmax'))
This Gist brought to you by gist-it.view rawtrain.py

Treinando

Vamos treinar nosso modelo em 120 epochs, valor que pode ser alterado de acordo considerando capacidade de processamento da sua máquina, sua pressa e o desempenho desejado para a sua rede neural. Usaremos o algoritmo RMSprop para otimização.

optimizer = RMSprop(lr=0.01)

model.compile(loss='categorical_crossentropy',
              optimizer=optimizer, metrics=['accuracy'])

history = model.fit(X, Y, validation_split=0.05,
                    batch_size=128, epochs=120, shuffle=True).history
This Gist brought to you by gist-it.view rawtrain.py

Por fim, salvamos nosso modelo e o histórico de treinamento, e plotamos o histórico para ver a evolução da acurácia obitida pelo modelo.

model.save('saved_models/word_prediction.h5')
pickle.dump(history, open("saved_models/history.p", "wb"))

plt.plot(history['accuracy'])
plt.plot(history['val_accuracy'])
plt.title('model accuracy')
plt.ylabel('accuracy')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.show()

plt.plot(history['loss'])
plt.plot(history['val_loss'])
plt.title('model loss')
plt.ylabel('loss')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.show()
This Gist brought to you by gist-it.view rawtrain.py

Testando

Só lembrando: o nosso modelo deve prever a próxima palavra considerando as 3 anteriores, ou as SEQUENCE_LENGH anteriores. Por isso, precisamos de um texto prévio para a predição. Esse texto é preparado pela seguinte função:

def prepare_input(text):
    x = np.zeros((1, SEQUENCE_LENGTH, len(unique_words)))
    for t, word in enumerate(text.split()):
        print(word)
        x[0, t, unique_words.index(word)] = 1
    return x
This Gist brought to you by gist-it.view rawtest.py

Usamos a seguinte função para escolher as palavras com maior probabilidade, conforme predição do modelo:

def sample(preds, top_n=3):
    preds = np.asarray(preds).astype('float64')
    preds = np.log(preds)
    exp_preds = np.exp(preds)
    preds = exp_preds / np.sum(exp_preds)
This Gist brought to you by gist-it.view rawtest.py

E fazemos a previsão assim:

def predict_completions(text, n=3):
    if text == "":
        return("0")
    x = prepare_input(text)
    preds = model.predict(x, verbose=0)[0]
    next_indices = sample(preds, n)
    return [unique_words[idx] for idx in next_indices]

q = "a relação entre a"
print("correct sentence: ", q)
seq = " ".join(tokenizer.tokenize(q.lower())[0:SEQUENCE_LENGTH])
print("Sequence: ", seq)
print("next possible words: ", predict_completions(seq, 5))
This Gist brought to you by gist-it.view rawtest.py

Geração de linguagem natural

Nós ainda podemos usar o nosso modelo para fazer geração de texto automático. Tomando como entrada 3 palavras e gerando uma frase como palavras, semelhante ao que fizemos com as Cadeias de Markov.

sentence = 'os únicos envolvidos'
words = sentence.split(" ")
while len(words) < SENTENCE_LENGTH:
    q = (["0"]*SEQUENCE_LENGTH)[:SEQUENCE_LENGTH-len(words)] + words
    sentence = ' '.join(q)
    seq = " ".join(tokenizer.tokenize(sentence.lower())[0:SEQUENCE_LENGTH])
    preds = predict_completions(seq, 1)
    if len(preds) > 0:
        words.append(preds[0])

print("Generated sentence: ", " ".join(words))

Conclusões

Nesse exemplo usamos como vocabulário apenas as palavras presentes no corpus de treinamento, que não é um número muito grande. Assim, se você quiser um modelo mais abrangente, precisa usar um vocabulário maior, como o do Freeling, por exemplo, ou de algum dicionário do português.

Pode ser que os resultados obtidos nos testes a partir da execução do nosso modelo, não sejam muito bons. Para melhorá-los, você pode tentar aumentar o tamanho do corpus de treinamento, a quantidade de épocas, ou utilizar Word Embeddings para a extração de features (Cenas dos próximos capítulos).

O código usado neste tutorial está disponível no GitHub.

Referências

Publicado por Clube dos Geeks

10 jun
9 Must-Read Python Books in 2021

Which book would you recommend someone to read?

“The joy of coding Python should be in seeing short, concise, readable classes that express a lot of action in a small amount of clear code — not in reams of trivial code that bores the reader to death.”

— Guido van Rossum

Python’s popularity and all-around nature make it the perfect programming language for a diverse range of projects. Moreover, this popularity and wide adoption by the corporations has led to a sharp demand in the industry for skilled Python developers.

Today, there are literally tons of resources, such as books, YouTube channels, podcasts, GitHub repos, online courses, and websites that extensively cover a variety of topics in Python.

Python Books

Just take it slow, and do not hurt your brain.

The internet is filled with loads of convenient mediums to learn everything about Python. Although we discussed the more widely adopted mediums earlier, books still remain an all-time hot favorite among learners. The thing that makes books so much popular among Python learners is that they allow the reader to absorb and practice the content at their own time and pace.

Stick with us while we uncover a handful of more well-known Python books for learners of all skill levels in the list below.

1. Think Python

  • Author: Allen B. Downey
  • Publisher: O’Reilly
  • Difficulty Level: Beginner

Think Python

Cover of the book ”Think Python”

“For all live births, the mean pregnancy length is 38.6 weeks, the standard deviation is 2.7 weeks, which means we should expect deviations of 2–3 weeks to be common.”

— Allen B. Downey

“Think Python” is undoubtedly one of the best books out there to get into the basics of Python programming. The book offers beginners an excellent entry point into the world of Python by taking on a more gradual approach to teaching the topics.

The latest edition of the book updates all the included code examples with their Python 3 counterpart to offer learners the most up-to-date learning experience. The book also comes with a number of exercises, case studies, and detailed explanations about the topics. Some key highlights of “Think Python” are listed below:

● Offers beginners the know-how to jump into learning Python right from their browser.

● Provides a clear definition of the concepts in Python.

● Emphasis on debugging to teach the readers to quickly find, resolve, and avoid bugs.

2. Python Programming: An Introduction to Computer Science

  • Author: John M. Zelle
  • Publisher: Franklin, Beedle
  • Difficulty Level: Beginner

Python Programming: An Introduction to Computer Science

Cover of the book ”Python Programming: An Introduction to Computer Science”

Thanks to the ease and simplicity of Python, it can be an awesome first programming language for beginners. Similarly, “Python Programming: An Introduction to Computer Science” has been written with a singular goal of making the fundamentals of Python as easy as possible for beginners.

The author targeted this book to be used as a college-level textbook, and for that, the author has taken more of a traditional approach to teaching Python by focussing on problem-solving, program design, and programming as core skills. So, if you are a college student and want to learn Python, we recommend giving this book a try. Key highlights of this book are listed below:

● Focus on using an easy-to-use graphics package to encourage the use of such GUI packages

● Loads of interesting examples and end-of-chapter exercises

● Focus on helping the reader master the fundamentals without overwhelming them with the entirety of Python topics

3. Django for Beginners: Build Websites with Python and Django

  • Author: William S. Vincent
  • Publisher: WelcomeToCode
  • Difficulty Level: Beginner

Build websites with Python and Django

Cover of the book ”Django for Beginners: Build Websites with Python and Django”

Django has become one of the most popular web application development frameworks among modern developers. Built with Python, Django has proven itself capable enough to offer virtually everything needed for building stunning web applications without diving into core Python.

Starting with a simple Hello World, “Django for Beginners: Build Websites with Python and Django” flawlessly delivers the gradual approach to teaching you how you can build full-scale Django applications. The book also focuses on teaching you the best practices for maintaining security, customizing the look and feel, and effective testing of your app.

Apart from the Hello World app, the rest of the apps covered in this book include the following:

● A Pages app

● A Message Board app

● A Blog app

● A Newspaper app

4. Python Pocket Reference: Python in Your Pocket

  • Author: Mark Lutz
  • Publisher: O’Reilly
  • Difficulty Level: Intermediate

Python Pocket Reference

Cover of the book ”Python Pocket Reference: Python in Your Pocket”

“In the Python way of thinking, explicit is better than implicit, and simple is better than complex.”
― Mark Lutz

Python Pocket Reference: Python in Your Pocket” is not really a full-on Python learning resource but instead offers instant references to developers on a host of Python topics. The author has intended this book to be used as a companion to other more fuller Python books that offer tutorials, code examples, and other learning materials.

The latest edition of the book covers all the need-to-know content from Python 3.4 and 2.7 while also covering the difference between the two versions. Mark’s pocket reference is targeted towards developers with some experience with Python programming. The book covers several topics, such as:

● Commonly used standard library modules and extensions

● Syntax for statements for creating and processing objects

● Object-oriented programming tools

● Built-in object types, like numbers, dictionaries, and more

● Special operator overloading methods

5. Python Machine Learning: Machine Learning and Deep Learning With Python, scikit-Learn, and TensorFlow 2

  • Author: Sebastian Raschka & Vahid Mirjalili
  • Publisher: Packt Publishing
  • Difficulty Level: Intermediate

Python Machine Learning

Cover of the book ”Python Machine Learning: Machine Learning and Deep Learning with Python, scikit-learn, and TensorFlow 2”

Thanks to Python, the popularity of Machine Learning has skyrocketed in recent years. Python Machine Learning: Machine Learning and Deep Learning with Python, scikit-learn, and TensorFlow 2” is aimed towards both Python developers and data scientists packing the foundational knowledge of the programming language, who are eager to create impressive Machine Learning and Deep Learning-powered smart solutions. If you’re either one of these, this book will be the perfect fit for you.

When it comes to the contents of this book, apart from the necessary introduction, the third edition provides plenty of coverage on Machine Learning topics, such as:

● Training simple ML algorithms

● Classifiers with the Scikit-learn package

● Steps on building good datasets

● Embedding Machine Learning models to applications

6. Deep Learning with Python

  • Author: François Chollet
  • Publisher: Manning Publications
  • Difficulty Level: Intermediate

Deep Learning with Python

Cover of the book ” Deep Learning with Python”

Deep Learning with Python” is an excellent book that simplifies the intricacies of Deep Learning using Python. The author of this book is none other than the creator of the famed Deep Learning Python API called Keras. François’ book uses Keras as the bridge between the world of Deep Learning and Python to gradually build your understanding of the subject with intuitive explanations and practical examples.

The book has been split into parts, covering most of the introductory stuff about Machine Learning and Neural Networks and the practical application of Deep Learning for real-world challenges and tasks, such as:

● Computer Vision

● Text and sequences

● Best practices

● Generative Deep Learning

7. Python in a Nutshell: A Desktop Quick Reference

  • Author: Alex Martelli, Anna Ravenscroft & Steve Holden
  • Publisher: O’Reilly
  • Difficulty Level: Intermediate

Python in a Nutshell

Cover of the book ”Python in a Nutshell: A Desktop Quick Reference”

No matter if you have worked with Python in the past or you’re a veteran developer looking to pick up Python, you’ll find “Python in a Nutshell: A Desktop Quick Reference” exceptionally useful. The book covers a range of widely used topics from the world of Python and serves as a quick reference for the Python programming language.

The authors of the book have split it into five parts covering everything from the basics to the core features as well as the more advanced ones. A brief explanation about those five parts is below:

● Part I: Covers the introduction and explanation about the Python interpreter

● Part II: Covers the core python language and its built-in topics

● Part III: Covers the Python library and extension modules

● Part IV: Covers network and web programming with Python

 Part V: Covers extending Python programs, it’s distribution and migration from v2 to v3

8. Programming Python: Powerful Object-Oriented Programming

  • Author: Mark Lutz
  • Publisher: O’Reilly
  • Difficulty Level: Intermediate

Programming Python

Cover of the book ”Programming Python: Powerful Object-Oriented Programming”

Let’s say you’ve understood the introductory topics in Python with great clarity, but what next?

The most obvious thing to do next is to test out your newfound knowledge by developing a simple yet practical Python application.

If domain-specific examples are what you’re looking for, we can’t recommend Lutz’s book “Programming Python: Powerful Object-Oriented Programming” enough. The book is perfect for intermediate Python developers and covers in-depth tutorials for some of the widely used applications from a diverse range of topics listed below:

● A brief and quick introduction to Python

● System programming with system tools and files and directories

● GUI programming with Tkinter

● Internet programming with client- and server-side scripting, network scripting, and an email client

9. Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit

  • Author: Steven Bird, Ewan Klein & Edward Loper
  • Publisher: O’Reilly
  • Difficulty Level: Advanced

Natural Language Processing with Python

Cover of the book ”Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit”

Natural Language Processing has become a vital element for modern devices as they play a key role in offering smart features like predictive text, handwriting recognition, human-friendly language translation, and more. The book “Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit” contains sufficient learning resources for those taking their first steps into the world of programming or those new to Python.

This book would be more suitable for developers with a strong grasp of Python fundamentals as it is filled with hundreds of detailed examples and exercises. It uses the Python library NLTK to teach topics, such as:

● Introduction to NLP

● Accessing text and lexical resources

● Processing raw text

● Categorizing and tagging words

● Text classification

Conclusion

Learning Python can open a slew of lucrative opportunities for you. If you are eager to snag one of the most trending and high-paying job profiles of the century, we recommend getting a solid understanding of the concepts in Python. The books we covered in this article do an exceptional job explaining even the most intricate Python topics in a reader-friendly manner.

 Published by Better Programming

02 jun
Como balão dirigido por inteligência artificial surpreendeu criadores

Os balões de hélio do Projeto Loon, do Google, tinham como objetivo levar acesso à internet a partes remotas do mundo

A equipe do Google olhava perplexa para as telas de seus computadores.

Eles haviam passado vários meses aperfeiçoando um algoritmo desenvolvido para conduzir um balão de hélio não tripulado de Porto Rico ao Peru. Mas algo estava errado.

O balão, controlado por inteligência artificial (IA), continuava desviando da rota.

Salvatore Candido, do agora extinto Projeto Loon, do Google, que tinha como objetivo levar acesso à internet a áreas remotas do planeta por meio de balões, não conseguia explicar a trajetória da aeronave.

Seus colegas assumiram manualmente o controle do sistema e o colocaram de volta na rota.

Só mais tarde eles perceberam o que estava acontecendo. Inesperadamente, a inteligência artificial a bordo do balão havia aprendido a recriar uma antiga técnica de navegação desenvolvida por humanos há séculos, senão milhares de anos.

A técnica envolve conduzir a embarcação em ziguezague contra o vento, de modo que seja possível avançar mais ou menos na direção desejada.

Sob condições climáticas desfavoráveis, os balões autônomos aprenderam a se virar sozinhos. O fato de terem feito isso, de forma espontânea, surpreendeu a todos, inclusive aos pesquisadores que trabalhavam no projeto.

“Rapidamente percebemos que tinham sido mais espertos que a gente, quando o primeiro balão autorizado a executar totalmente essa técnica bateu um recorde de tempo de voo de Porto Rico ao Peru”, escreveu Candido em um blog sobre o projeto.

“Nunca me senti tão inteligente e tão burro ao mesmo tempo.”

Este é exatamente o tipo de coisa que pode acontecer quando a inteligência artificial é deixada à sua própria sorte.

Diferentemente dos programas de computador tradicionais, as IAs são projetadas para explorar e desenvolver novas abordagens para tarefas sobre as quais seus engenheiros humanos não lhes falaram explicitamente.

Mas enquanto aprendem como fazer essas tarefas, as IAs às vezes apresentam uma abordagem tão inovadora que pode surpreender até mesmo as pessoas que trabalham com esses sistemas o tempo todo.

Isso pode ser algo bom, mas também pode tornar as coisas controladas por inteligência artificial perigosamente imprevisíveis — robôs e carros autônomos podem acabar tomando decisões que colocam os humanos em perigo.

Como é possível para um sistema de inteligência artificial “superar” seus mestres humanos? E será que poderíamos controlar as mentes das máquinas de alguma forma, para garantir que não aconteça nenhum desastre imprevisto?

Na comunidade de IA, há um caso de criatividade que parece ser mais citado do que qualquer outro.

O momento que realmente empolgou as pessoas sobre o que a inteligência artificial pode fazer, diz Mark Riedl, do Instituto de Tecnologia da Geórgia, nos EUA, foi quando o DeepMind, laboratório de IA do Google, mostrou como um sistema de machine learning (aprendizagem automática) dominou o antigo jogo de tabuleiro Go — e depois derrotou um dos melhores jogadores humanos do mundo.

Balão do Projeto Loon

CRÉDITO,LOON

A inteligência artificial que controlava os balões do Projeto Loon aprendeu uma técnica de navegação para desafiar o vento

“Isso acabou demonstrando que havia novas estratégias ou táticas para contra-atacar um jogador que ninguém realmente havia usado antes — ou pelo menos muitas pessoas não sabiam a respeito”, explica Riedl.

E ainda assim, um inocente jogo de Go desperta sentimentos diferentes entre as pessoas.

Riscos

Por um lado, o DeepMind descreveu orgulhosamente as maneiras pelas quais seu sistema, o AlphaGo, foi capaz de “inovar” e revelar novas abordagens para um jogo que os humanos vêm jogando há milênios.

Por outro lado, alguns questionaram se uma inteligência artificial tão inovadora poderia um dia representar um sério risco para os humanos.

“É ridículo pensar que seremos capazes de prever ou gerenciar o pior comportamento das inteligências artificiais quando não podemos, na verdade, imaginar seu possível comportamento”, escreveu Jonathan Tapson, da Universidade de Western Sydney, na Austrália, após a vitória histórica do AlphaGo.

É importante lembrar, diz Riedl, que as inteligências artificiais não pensam realmente como os humanos. Suas redes neurais são, de fato, vagamente inspiradas em cérebros de animais, mas podem ser melhor descritas como “dispositivos de exploração”.

Quando tentam resolver uma tarefa ou problema, elas não trazem consigo muitas, se é que alguma, ideia preconcebida sobre o mundo em geral. Simplesmente tentam — às vezes, milhões de vezes — encontrar uma solução.

“Nós, humanos, trazemos conosco muita bagagem mental, pensamos nas regras”, explica Riedl.

“Os sistemas de inteligência artificial nem sequer entendem as regras, então eles mexem nas coisas de maneira muito aleatória.”

Dessa forma, as IAs poderiam ser descritas como o equivalente em silício de pessoas com Síndrome do Sábio (ou de Savant), acrescenta Riedl, citando a condição em que um indivíduo tem uma deficiência mental grave, mas também possui uma habilidade extraordinária, geralmente relacionada à memória.

Uma maneira pela qual as IAs podem nos surpreender envolve sua capacidade de lidar com problemas radicalmente diferentes, mas usando o mesmo sistema básico.

Recentemente, uma ferramenta de machine learning desenvolvida para gerar parágrafos de texto foi requisitada a executar uma função muito diferente: jogar uma partida de xadrez.

O sistema em questão se chama GPT-2 e foi criado pela OpenAI. Treinado por meio de milhões de artigos de notícias online e páginas da web, o GPT-2 é capaz de prever a próxima palavra em uma frase com base nas palavras anteriores.

Uma vez que os movimentos de xadrez podem ser representados em caracteres alfanuméricos, “Be5” para mover um bispo, por exemplo, o desenvolvedor Shawn Presser pensou que se ele treinasse o algoritmo por meio de registros de partidas de xadrez, a ferramenta poderia aprender como jogar ao descobrir sequências desejáveis de movimentos.

Presser treinou o sistema com 2,4 milhões de jogos de xadrez.

“Foi muito bacana ver o mecanismo de xadrez ganhando vida”, diz ele.

“Eu não tinha certeza se iria funcionar.”

Mas deu certo. Não é tão bom quanto computadores especialmente projetados para xadrez — mas é capaz de jogar partidas difíceis com sucesso.

Veículo autônomo

CRÉDITO,NICHOLAS KAMM/GETTY IMAGES

Com a inteligência artificial começando a ser usada no mundo real, é importante saber se ela fará algo inesperado

Segundo Presser, o experimento mostra que o sistema GPT-2 tem muitos recursos inexplorados. Um “sábio” com dom para o xadrez.

Uma versão posterior do mesmo software surpreendeu os web designers quando um desenvolvedor o treinou brevemente para produzir códigos para exibir itens em uma página, como textos e botões.

A inteligência artificial gerou o código apropriado, embora tudo o que tinha para seguir adiante eram descrições simples como “texto em vermelho que diz ‘eu te amo’ e um botão com ‘ok’ nele”.

Claramente, ela adquiriu a essência básica de web design, mas após um treinamento surpreendentemente curto.

Uma área em que as IAs há muito tempo impressionam é na de videogames.

Há inúmeros casos na comunidade de inteligência artificial sobre coisas surpreendentes que os algoritmos têm feito em ambientes virtuais.

Os algoritmos costumam ser testados e aperfeiçoados, para ver o quão capazes eles realmente são, em espaços semelhantes aos de videogames.

Em 2019, a OpenAI ganhou as manchetes com um vídeo sobre um jogo de pique-esconde jogado por personagens controlados por machine learning.

Para a surpresa dos pesquisadores, aqueles que estavam “procurando” acabaram aprendendo que podiam pular em cima dos itens e “surfá-los” para ter acesso aos recintos onde havia personagens escondidos. Em outras palavras, aprenderam a burlar as regras do jogo a seu favor.

Uma estratégia de tentativa e erro pode resultar em todos os tipos de comportamentos interessantes. Mas nem sempre levam ao sucesso.

Dois anos atrás, Victoria Krakovna, pesquisadora da DeepMind, pediu aos leitores de seu blog que compartilhassem histórias em que as IAs resolveram problemas complicados — mas de maneiras imprevisivelmente inaceitáveis.

A longa lista de exemplos que ela reuniu é fascinante. Entre eles, está um algoritmo de jogo que aprendeu a se matar no final da primeira fase — para evitar morrer na segunda fase. O objetivo de não morrer na segunda fase foi alcançado, mas não de uma forma particularmente impressionante.

Outro algoritmo descobriu que poderia pular de um penhasco em um jogo e levar um oponente consigo para a morte. Isso deu à IA pontos suficientes para ganhar uma vida extra e continuar repetindo essa tática suicida em um loop infinito.

O pesquisador de inteligência artificial de videogame Julian Togelius, da Escola de Engenharia Tandon da Universidade de Nova York, nos EUA, pode explicar o que está acontecendo.

Ele diz que esses são exemplos clássicos de erros de “alocação de recompensa”. Quando uma inteligência artificial é solicitada a realizar algo, ela pode descobrir métodos estranhos e inesperados de atingir seu objetivo, onde o fim sempre justifica os meios.

Nós, humanos, raramente adotamos tal postura. Os meios e as regras que preveem como devemos jogar são importantes.

Togelius e seus colegas descobriram que esse viés voltado a objetivos pode ser exposto em sistemas de inteligência artificial quando eles são colocados à prova em condições especiais.

Em experimentos recentes, sua equipe descobriu que uma IA solicitada a investir dinheiro em um banco, correria para um canto próximo do saguão do banco virtual e esperaria para receber um retorno sobre o investimento.

Togelius diz que o algoritmo aprendeu a associar correr para o canto com a obtenção de uma recompensa financeira, embora não houvesse nenhuma relação real entre seu movimento e o quanto era pago.

Isso, segundo ele, é mais ou menos como se a inteligência artificial desenvolvesse uma superstição: “Você recebeu uma recompensa ou punição por algo — mas por que você recebeu?”

Essa é uma das armadilhas do “aprendizado por reforço”, em que uma inteligência artificial acaba planejando uma estratégia equivocada com base no que encontra em seu ambiente.

A inteligência artificial não sabe por que teve sucesso, ela só pode basear suas ações em associações aprendidas. Um pouco como as primeiras culturas humanas que começaram a associar rituais a mudanças no clima, por exemplo. Ou os pombos.

Em 1948, um psicólogo americano publicou um artigo descrevendo um experimento incomum em que colocava pombos em gaiolas e os recompensava com comida de forma intermitente.

Os pombos começaram a associar a comida a o que quer que estivessem fazendo na ocasião — seja batendo as asas ou executando movimentos semelhantes a uma dança. Eles então repetiam esses comportamentos, aparentemente na expectativa de que viria uma recompensa a seguir.

Pombos

CRÉDITO,BINNUR EGE GURUN KOCAK/GETTY IMAGES

Os pombos podem aprender a associar a comida a certos comportamentos, e as IAs podem exibir postura semelhante

Há uma grande diferença entre as IAs dos jogos testados por Togelius e os animais vivos usados ​​pelo psicólogo, mas Togelius sugere que o mesmo fenômeno parece estar em ação: a recompensa se torna erroneamente associada a um comportamento particular.

Embora os pesquisadores de inteligência artificial possam se surpreender com os caminhos trilhados pelos sistemas de machine learning, isso não significa necessariamente que tenham admiração por eles.

“Nunca tive a sensação de que esses agentes pensem por si só”, afirma Raia Hadsell, do DeepMind.

Hadsell fez experiências com muitas IAs que encontraram soluções interessantes e inovadoras para problemas não previstos por ela ou seus colegas.

Ela destaca que é exatamente por isso que os pesquisadores procuram aperfeiçoar as IAs em primeiro lugar — para que possam alcançar coisas que os humanos não conseguem por conta própria.

E ela argumenta que os produtos que usam inteligência artificial, como carros autônomos, podem ser rigorosamente testados para garantir que qualquer imprevisibilidade esteja dentro de certos limites aceitáveis.

“Você pode dar garantias razoáveis ​​sobre o comportamento com base em evidências empíricas”, diz ela.

O tempo dirá se todas as empresas que vendem produtos construídos com inteligência artificial são escrupulosas nesse aspecto.

Mas, ao mesmo tempo, é importante observar que as IAs que demonstram comportamentos inesperados não estão de forma alguma confinadas a ambientes de pesquisa. Elas já estão atuando em produtos comerciais.

No ano passado, um braço robótico que trabalhava em uma fábrica em Berlim, desenvolvido pela empresa americana Covariant, apresentou maneiras inesperadas de classificar os itens à medida que eles passavam em uma esteira rolante.

Apesar de não ter sido especialmente programada para isso, a inteligência artificial que controla o braço aprendeu a mirar no centro dos itens em embalagens transparentes para ajudar a garantir que os pegaria com sucesso todas as vezes.

Como esses objetos podem se confundir quando se sobrepõem, devido ao material transparente, mirar com menos precisão significa que o robô pode não conseguir pegar o item.

“Isso evita a sobreposição de objetos nos cantos e, em vez disso, mira na superfície mais fácil de agarrar”, afirma Peter Chen, cofundador e presidente-executivo da Covariant.

“Isso realmente nos surpreendeu.”

Em paralelo, Hadsell diz que sua equipe testou recentemente um braço robótico que passa diferentes blocos por meio de orifícios de formatos variados.

A mão do robô era bastante desajeitada, então a inteligência artificial que o controlava aprendeu que, pegando e soltando repetidamente o bloco, poderia colocá-lo na posição certa para então agarrá-lo e passá-lo facilmente pelo orifício apropriado — em vez de tentar manobrá-lo usando a garra.

Tudo isso ilustra uma questão levantada por Jeff Clune, da OpenAI, que recentemente colaborou com pesquisadores do mundo todo para coletar exemplos de IAs que desenvolveram soluções inteligentes para problemas.

Clune diz que a natureza exploratória da inteligência artificial ​​é fundamental para seu sucesso futuro.

“Conforme estamos ampliando esses sistemas de inteligência artificial, o que estamos vendo é que as coisas que eles fazem de maneira criativa e impressionante não são mais curiosidades acadêmicas”, afirma.

Como as IAs encontram formas melhores de diagnosticar doenças ou entregar suprimentos de emergência, elas até salvam vidas graças à sua capacidade de encontrar novas maneiras de resolver velhos problemas, acrescenta Clune.

Mas ele acredita que aqueles que desenvolvem tais sistemas precisam ser abertos e honestos sobre sua natureza imprevisível, para ajudar a população a entender como a inteligência artificial funciona.

Afinal, é uma faca de dois gumes — a promessa e a ameaça da inteligência artificial fazem parte do mesmo pacote. O que será que elas vão inventar a seguir?

Publicado por BBC Future

17 maio
What Happens When Memes Are Commodities?

Putting a dollar value on the language of the internet will be weird

Zoe Roth, aka Disaster Girl

For over a decade, the image of a young girl smirking in the foreground as a home in the background is engulfed in flames has circulated as fodder for countless memes. The picture, known simply as Disaster Girl, though originally taken by an amateur photographer — who then entered it into an online contest, sparking its journey across the web — has all but officially entered the public domain. That is, until Thursday, at least technically speaking.

The Raleigh News & Observer reports that the then-young girl in the photo, Zoe Roth (now 21), recently sold the image as a Non-Fungible Token, or NFT, for 180 Ether — the cryptocurrency for the Etherium blockchain — worth somewhere in the vicinity of $450,000 at the time (at writing, 180 Ether is valued at approximately $500,000). With the sale, Roth has also assured that she will receive 10% of any sale of the NFT in the future — a kind of digital residual.

Yet, the image, like any digital asset, remains public. If anything, the Disaster Girl memes will likely spread even more with news of the sale. But is the image still the same, now that it’s technically been sold? It’s unclear from the coverage whether the copyright to Disaster Girl was transferred as part of the sale of the NFT, but even if not, there is something fundamental about the image that’s now different.

While memes have been endlessly replicated on consumer products for years (and things like dances have been used to create profits their original creators never see) — that is, memes are commodified — the meme itself, whether an image or an action, has remained transferable at no cost. These have been visual or social commodities, not in and of themselves financial commodities. But what happens when a meme image is made into an NFT, when it is sold to an owner, even if that owner doesn’t retain the copyright?

In practice, there is no difference. For the internet at large, Disaster Girl is the same, being far too popular for far too long to be reined in at this point. Disaster Girl is ours, no matter who owns the NFT. But for meme images yet to emerge, Disaster Girl’s sale raises the possibility that the underlying assumptions about meme images will likely change.

What has made countless meme images interesting, not to mention popular, has been that they are impossible to co-opt into a single use, impossible to be singularly defined by any single individual. Memes remain one of the few lasting products of a chaotic internet, unpredictable and frequently morphing in unexpected and inexplicable ways into distinct, accepted signifiers — the visual language of our online world.

As more meme images invariably become NFTs, even if they still function as they always have, temporally, they will have undergone a metamorphosis from an organic product of the internet into one that is immediately subject to a different kind of co-option — not simply into a slice of internet vernacular, but a piece of a different world altogether, the world of art. They will become part of the world of commerce. This means, in the future, when you share Disaster Girl or any other NFT-linked meme, you’re doing more than contributing to the language of the internet; you’re also affecting its strict monetary value.

It’s language, commodified.

Published by Wired 

07 maio
MCTI inaugura parque que demonstra tecnologias em internet das coisas


O Ministério da Ciência, Tecnologia e Inovações (MCTI) e o Centro Universitário Facens inauguraram hoje (30), em Sorocaba, no interior paulista, o Centro de Referência IoT e Tecnologias 4.0, espaço destinado a demonstrações práticas de tecnologias que fazem uso da chamada internet das coisas (IoT), advento que, graças à quinta geração da internet (5G) possibilitará o uso coordenado e inteligente de aparelhos para controlar diversas atividades.

Ao conectar objetos do cotidiano – como eletrodomésticos, smartphones, roupas e automóveis – à internet (e entre si), essa tecnologia permitirá até mesmo a realização de procedimentos médicos delicados a distância, além de sistemas de direção automática de carros e as mais diversas tecnologias de automação e inteligência artificial, inclusive para a agricultura, a indústria e as cidades.

O centro de referência inaugurado nesta sexta-feira tornará possível a demonstração de soluções em IoT em áreas consideradas prioritárias segundo o Plano Nacional de Internet das Coisas, que abrange ações em frentes como o Cidades 4.0, Saúde 4.0, Agro 4.0, Indústria 4.0, Turismo 4.0 e Educação 4.0.

“A ideia é que o centro ofereça programas para a promoção do ensino, formação, popularização e divulgação da ciência e tecnologia no país, promovendo o ensino inovador, empreendedorismo e desenvolvimento das demandas locais, com o engajamento da indústria, academia e governo”, informa o ministério.

Em nota, o ministro da Ciência, Tecnologia e Inovações, Marcos Pontes, diz que é papel da pasta direcionar o uso da internet das coisas e preparar a população para lidar com as tecnologias do futuro.

Enquanto o avanço das tecnologias vai tornando muitas tarefas mais eficientes e precisas, é preciso lembrar que é necessário criar empregos alinhados a esse progresso para as pessoas, afirma Pontes. “Nós não podemos parar a tecnologia para manter os postos de trabalho, mas podemos preparar e requalificar os profissionais, assim como formar as novas gerações já adaptadas para esse novo cenário.”

Segundo o MCTI, o centro de referência de Sorocaba estará integrado ao Smart Campus Facens – laboratório voltado para a solução de “problemas reais, conectando a comunidade acadêmica, mercado, empresas e sociedade, por meio de projetos que tornem as cidades mais humanas, inteligentes e sustentáveis”.

 

Publicado por UOL

16 abr
Entenda o que é IoT na indústria 4.0 e porque isso é uma aposta que vai revolucionar o mercado industrial

Veja também exemplos de como esse conceito já está atuando em alguns mercados

 

Imagine conectar diversos dispositivos, através da internet, que podem trocar informações entre si? Essa é a ideia por trás da Internet das Coisas (IoT). Aplicado à indústria, a conexão entre esses diversos dispositivos é a IoT na indústria 4.0.

Indústria 4.0 é conhecida como a Quarta Revolução Industrial, caracterizada pela introdução da tecnologia da informação na indústria. Essa é a nova tendência que está sendo adotada pelas grandes corporações para sair na frente em seu mercado.

Para entender essa ideia de IoT na indústria 4.0, vamos fazer uma analogia com o funcionamento do cérebro humano. Em 1926, Nikola Tesla, inventor nos campos de engenharia mecânica e eletrotécnica, disse:

 

“Quando a tecnologia sem fio for perfeitamente aplicável, a Terra inteira será convertida em um imenso cérebro, o que de fato é, com todas as coisas sendo partículas de um todo real e rítmico”

 

Sendo assim, essa analogia ao nosso cérebro permite compreender melhor a ideia de IoT como uma rede conectada. Essa rede por si só possui imensas quantidades de conexões entre as células, compondo a rede do nosso sistema nervoso.

Portanto, assim como células diferentes possuem finalidades diferentes, os produtos conectados possuem diferentes funções e aplicabilidades, porém estão unidos sob a mesma rede.

As conexões geradas pela IoT

Essa conexão que a IoT na indústria 4.0 fornece, gera oportunidades inéditas, criando um grande círculo de valor agregado aos produtos e serviços que dela se utilizam. Entenda melhor como isso pode funcionar na prática, a partir da sequência de fatores a seguir:

  • A chuva influencia a produção de matéria-prima
  • O valor do produto final sofre alterações no mercado mundial
  • A quantidade de produtos derivados estocados impacta a economia nacional
  • Ocorre uma repentina elevação da demanda, cujo fornecimento de insumos não consegue suprir.
  • Em vez da produção ser intensificada, será interrompida para uma parada programada de manutenção.

Sendo assim, imagine um monitoramento integrado de todos esses acontecimentos, gerando dados que se comunicam em tempo real por meio do que pode-se considerar uma grande base de dados unificada.

A partir desse banco de dados, seriam tomadas decisões automáticas através da comunicação online entre os dispositivos interconectados responsáveis por monitorar esses eventos.

Com base nas decisões tomadas por meio da visão global de todos esses fatores, o processo produtivo se torna mais eficiente, reduzindo os impactos negativos e maximizando a cadeia de valor de determinado setor industrial.

Então, essa integração não só interna como externa à indústria, é a base da IoT na indústria 4.0. A nível mundial, a Accenture realizou um estudo para ter uma projeção do impacto na economia com a internet industrial das coisas (IIoT) nos próximos anos.

Diante disso, as previsões mais otimistas apresentam que o valor gerado pelo investimento em IIoT chegará a US $ 15 trilhões do PIB global até 2030. Esse estudo pode ser consultado através deste link.

Depois desse panorama mundial, vamos aprofundar mais nos assuntos. Aqui nesse artigo sobre IoT na indústria 4.0, você pode entender melhor sobre:

  • O que é a indústria 4.0
  • O que é IoT
  • Como a IoT na indústria 4.0 pode revolucionar a indústria
  • Benefícios da IoT na indústria 4.0

 

Afinal, o que é a indústria 4.0?

IoT na industria 4.0

O surgimento da indústria 4.0 veio por meio dos alemães que queriam elevar sua competitividade com a manufatura asiática. Por isso, definiram uma estratégia de governo para aumentar a produtividade da indústria através da inovação.

Segundo a chanceler da Alemanha, Angela Merkel:

 

“A indústria 4.0 é a transformação completa de toda a esfera da produção industrial através da fusão da tecnologia digital e da internet com a indústria convencional.”

 

Apesar da disseminação do conceito mundialmente, ele ainda não é uma realidade. Essa é a primeira vez que uma revolução industrial é anunciada antes de acontecer. Todos os acontecimentos estão sendo previstos como tendências.

Dessa forma, a Quarta Revolução Industrial está sendo motivada por três grandes mudanças no mundo industrial produtivo. São elas:

  • Avanço exponencial da capacidade dos computadores;
  • Imensa quantidade de informação digitalizada;
  • Novas estratégias de inovação (pessoas, pesquisa e tecnologia).

Essas mudanças permitem que tudo dentro e ao redor de uma planta operacional (fornecedores, distribuidores, unidades fabris, e até o produto) sejam conectados digitalmente, proporcionando uma cadeia de valor altamente integrada.

 

Em meio a tudo isso, o que significa a Internet das Coisas (IoT)?

A IoT na indústria 4.0 é basicamente a responsável pela integração de todos os dispositivos dentro e externo à planta. A IoT é o conceito que representa a conexão.

 

“A Internet das Coisas é uma rede de objetos físicos, sistemas, plataformas e aplicativos com tecnologia embarcada para comunicar, sentir ou interagir com ambientes internos e externos.”  

 

Quando se diz que a internet está na indústria, no chão de fábrica, devemos relacionar isso a um ambiente onde todos os equipamentos e máquinas estão conectadas em redes e disponibilizando informações de forma única.

Desse modo, especificamente quando falamos do universo da Internet das Coisas na indústria, nos referimos a Industrial Internet of Things (IIoT). Conheça o nosso artigo sobre IIoT para se aprofundar no assunto e entender como esse conceito está funcionando atualmente.

Para deixar mais claro, vamos ressaltar a diferença entre IoT e IIoT. IoT é o conceito mais abrangente que surge como a ideia de conectar qualquer dispositivo que gere informações e possa se conectar a um serviço de cloud em qualquer segmento.

Em contrapartida, a IIoT é a conexão de diferentes dispositivos relacionados à cadeia produtiva, conectando essas informações via cloud. Por exemplo, permitindo o processo produtivo conectar-se diretamente a um fornecedor de produto em tempo real na linha de produção.

 

Como a IoT na indústria 4.0 está revolucionando a indústria?

Agora que já entendemos os conceitos, vamos apresentar exemplos do que já está sendo feito atualmente. A IoT na indústria 4.0 já está presente em diferentes segmentos e atuando de diferentes maneiras.

 

1) Otimizando a manutenção na energia eólica

IoT na indústria 4.0

Schaeffler e a IBM vão utilizar turbinas eólicas para explorar como Machine Learning pode revelar insights valiosos sobre a performance de equipamentos em diferentes condições de operação.

Assim, sensores nos equipamentos informam as condições dos componentes da turbina em tempo real. Dessa forma, através da previsão do vento pela IBM, os operadores de turbina estão aptos para planejar com antecedência e repor peças durante períodos menos ventosos.

 

2) Aumentando a eficiência operacional de plantas industriais com gerenciamento de alarmes e eventos

IoT na industria 4.0

É muito comum indústrias possuírem milhares de eventos disparados pelo sistema de automação da planta. Sejam informações de alarmes, intervenções, mudança de estados, tudo fica registrado como eventos.

A quantidade é tão grande que se torna impossível realizar a análise desses dados sem ser por softwares especializados

Assim, visando amenizar esse problema, existe a prática de gerenciamento de alarmes e eventos. Um software de gerenciamento conecta-se ao sistema de controle e consegue extrair todas as informações dos milhares de dados gerados diariamente.

Essa grande quantidade de dados brutos são minerados e transformados em insights valiosos sobre as condições da planta industrial. Esse processo é denominado business intelligence.

Ainda assim, existe uma lacuna muito grande de sistemas que de fato conseguem minerar esses dados em tempo real gerando informações relevantes que facilitem o processo de tomada de decisão seja de maneira manual ou automática.

A maioria das indústrias sequer realiza a análise desses dados de maneira proativa, servindo apenas para registros para caso de necessidade de avaliação como, em análise de incidentes.

Por fim, o gerenciamento de alarmes e eventos facilita o trabalho do operador que consegue controlar a planta com maior precisão, aumentando a produtividade e diminuindo as perdas.

 

3) Veículos Conectados

IoT na industria 4.0

A IoT na indústria 4.0 também permite que a Schaeffler amplie a funcionalidade e a vida útil de componentes da indústria automotiva. Eles conseguiram encontrar um modelo de negócio híbrido a partir desta ideia.

Desse modo, análises e sistemas sensoriais em tempo real podem transformar dados brutos em insights valiosos que podem ser utilizados pelos fabricantes para aumentar a confiabilidade dos carros e oferecer um novo serviço de valor agregado aos clientes.

Dessa forma, eles conseguem ampliar a qualidade para além da porta da fábrica. Pois, fornece em tempo real aos clientes as condições dos seus respectivos carros.

 

Quais os benefícios da IoT na indústria 4.0?

Compreendido como funciona na prática, quais os benefícios que tudo isso oferece? A utilização de IoT e IIoT, trazem benefícios para as plantas industriais nos seguintes aspectos:

 

1- Eficiência operacional e maximização dos lucros

A eficiência operacional é o mais falado atualmente, e os primeiros adeptos estão focados nesses benefícios.

Ao introduzir automação, conectividade e técnicas de produção mais flexíveis, por exemplo, os fabricantes podem aumentar sua produtividade em até 30%. Esse dado também foi disponibilizado pelo estudo realizado pela Accenture.

Além disso, a escalabilidade, economia de tempo e de custos, auxilia na maximização dos lucros de organizações industriais.

Os aspectos que aumentam a eficiência operacional da planta são:

  • Redução de paradas na produção;
  • Melhoria do uso do ativo;
  • Redução no custo do ciclo do ativo;
  • Melhoria da produção;

 

2- Novos serviços e modelos de negócios

A IoT na indústria 4.0 permite que sejam criados novas fontes de receitas pela criação de novos serviços conectados. Os modelos de negócio híbridos, permitem que sejam aproveitados tantos os produtos quanto serviços digitais.

Sob o mesmo ponto de vista, o modelo de negócio híbrido são negócios que oferecem tanto produtos quanto um serviço relacionado à esse produto.

No exemplo anterior dos veículos conectados, a Schaeffler aproveitou os dados brutos obtidos para fornecer o serviço de condição dos carros em tempo real como fonte para manutenções preventivas.

A utilização de serviços digitais ainda melhora o relacionamento com o cliente. Pois, a entrega do produto possibilita diferentes pontos de contatos que geram informações valiosas para o cliente. É criada uma relação de confiança e lealdade.

 

3- Maior conhecimento para tomadas de decisões

A análise dos dados industriais permite que os executivos tenham maior quantidade de informação. Isso facilita para tomarem melhores decisões em virtude de ter uma visão mais precisa do desempenho da indústria.

Para completar, a rede da IIoT de dispositivos inteligentes permite que as organizações industriais conectem todas as suas pessoas, dados e processos do chão de fábrica até os executivos. Auxiliando ainda mais na produtividade dos líderes e nas tomadas de decisão.

É importante ressaltar que mais do que facilitar as tomadas de decisão, a indústria 4.0 quer ir além. Ela visa promover que boa parte dessas decisões sejam tomadas de maneira automática por técnicas inteligentes.

 

Conclusão

A melhor maneira de inovar em um setor industrial é quando você consegue identificar uma tendência de comportamento e se antecipa para aplicar uma nova ideia na sua indústria.

O mercado já está nos mostrando que o mundo caminha para a Quarta Revolução Industrial. Isso representa a introdução da tecnologia da informação nas indústrias.

Portanto, para as empresas que buscam sair na frente dentro do seu mercado e inovar, apostar na internet das coisas e IoT na indústria 4.0 pode ser um ótimo caminho.

Por fim, existe ainda um potencial escondido para um alto crescimento das indústrias, esse potencial é a utilização dos dados. Um bom uso desses dados permite aumentar a eficiência operacional, tomar melhores decisões e até criar novos modelos de negócio.

08 abr
Como aprender a programar pode mudar sua vida

Para Hannah Blair, enveredar-se pelo ramo da tecnologia foi complicado.

Ela frequentava uma escola para meninas que não oferecia o curso de informática e programação que queria, embora a escola para meninos oferecesse a disciplina.

“A escola de meninas tinha ciência da computação, enquanto a escola de meninos tinha um curso de informática de verdade, apesar de as duas estarem sob o mesmo teto, então mudei para a escola de meninos para fazer isso”, diz Hannah.

Sua determinação valeu a pena e ela se formou em Ciência da Computação pela Universidade de Surrey (Inglaterra) em 2018.

A jovem conseguiu uma vaga no programa de pós-graduação do banco alemão Deutsche Bank e desde então tem trabalhado com startups como desenvolvedora independente. Atualmente, atua como desenvolvedora sênior na plataforma de eventos virtuais Hopin.

Demorou 14 meses para Carl Mungazi conseguir seu primeiro emprego, pois ele enfrentou um problema comum a muitos candidatos.

“Um dos entrevistadores me disse que tinha uma proposta, mas queriam que eu ganhasse mais experiência.”

Em última análise, seja qual for o caminho que você tomar nesse setor, você deve demonstrar um claro interesse e paixão pela programação.

“É um processo muito desafiador que realmente aumentará sua resistência mental, mas se você for capaz de seguir em frente, isso mudará seriamente sua vida”, conclui Thornton.

Foi uma escolha de carreira inteligente, já que o desenvolvimento de software é um setor com muitas oportunidades.

Por exemplo, o Bureau of Labor Statistics (BLS), o Departamento de Estatísticas do Trabalho dos Estados Unidos, prevê uma taxa de crescimento de empregos de 22 % para esses desenvolvedores entre 2019 e 2029, em comparação com 4% para outras ocupações.

E os salários são bons. De acordo com o site de comparação de salários PayScale, o salário médio de um desenvolvedor é de cerca de US$ 80 mil (cerca de R$ 450 mil) por ano.

Mudança de carreira

Carl Mungazi

Carl Mungazi estudou jornalismo e trabalhou como repórter em Luton, na Inglaterra, por quatro anos, antes de se tornar desenvolvedor em 2016.

Sua vontade de enveredar-se pela profissão resultou de seu desejo de construir um agregador de notícias local, algo que já tinha visto em publicações nacionais.

“Basicamente, queria encontrar uma maneira de rastrear as notícias publicadas em Luton”, diz Mungazi.

Um amigo desenvolvedor o ajudou a construir o “back-end”, a tecnologia necessária para alcançar seu objetivo, e Mungazi aprendeu a usar Javascript, uma linguagem de programação para construir sites.

A escolha de qual linguagem de computador realmente aprender depende do que você deseja fazer.

Python é uma poderosa linguagem de propósito geral e muitas vezes é a primeira ensinada a estudantes universitários em cursos de informática.

É amplamente utilizada nos negócios — o YouTube, por exemplo, é amplamente escrito em Python.

Ruby é outra linguagem versátil, popular entre startups.

Os “bootcamps”

Independentemente da linguagem que um programador novato escolha, existem vastos recursos online para ajudar os autodidatas. Em seu caso, Mungazi diz que o site freecodecamp.org foi particularmente útil para ele.

Outra opção popular é frequentar um bootcamp (centro de treinamento), de grande ajuda para quem muda de carreira. Muitos deles surgiram nos últimos anos, oferecendo cursos intensivos destinados a ensinar os participantes as habilidades necessárias para conseguir o primeiro emprego nesse setor.

Brenden Thornton

Brenden Thornton escolheu esse caminho, inscrevendo-se em um curso oferecido pela Flatiron School, quando optou por deixar de ser cinegrafista da NBA (liga de basquete profissional) nos Estados Unidos.

“Uma grande vantagem de ir para um bootcamp é ter um currículo customizado para você. Não tive que fazer conjecturas ao decidir quais tecnologias aprender e como eu as aprenderia sozinho”, conta.

O suporte que vem com a participação nesses bootcamps também foi fundamental para sua decisão.

“Eles realmente dedicam tempo para formar uma equipe de suporte ao seu redor, não apenas por meio de oportunidades de emprego, mas também por meio de consultores de carreira que o ajudam a navegar no processo de procura de emprego.”

Uma desvantagem dos bootcamps é que eles podem ser demorados e proibitivamente caros para muitos. Muitos cursos ultrapassam US$ 10 mil (R$ 57 mil).

Uma bolsa parcial ajudou a aliviar parte dos encargos financeiros de Thornton, mas ele ainda tinha uma agenda cansativa.

Sua rotina de segunda a sexta consistia em acordar às 5 da manhã para trabalhar no Uber e no Lyft até as 9h. Então, estudava até as 16h e depois voltava a trabalhar nos apps de carona até as 21h.

Habilidades

Independentemente do caminho que você decidir seguir na programação, é essencial garantir que as chamadas soft skills (ou habilidades comportamentais) não sejam negligenciadas.

Curso da Flatiron School

Em cursos presenciais, habilidades além de programação e ciência da computação são aprendidas

“As habilidades que os empregadores procuram muitas vezes são mais do que técnicas”, de acordo com Barry Cranford, CEO da empresa de recrutamento RecWorks.

“A principal coisa que realmente faz a diferença é se você pode colocá-las em prática como parte de uma equipe.”

Ter um perfil público para destacar seu trabalho também pode ajudar na hora de se candidatar a empregos.

A plataforma online Github é particularmente popular entre os empregadores. “É como um portfólio de fotografias, você pode mergulhar nele e ver o que as pessoas fizeram”, diz Barry Cranford.

Encontrar um mentor que o apoia é outro elemento que pode lhe dar um impulso, diz ele, e pode ser uma “arma secreta” para sua carreira.

Redes profissionais

Tal como acontece com muitos setores, o networking (redes de contatos profissionais) também pode ajudar a construir esses primeiros contatos cruciais.

“Participar de qualquer reunião pode aumentar muito suas chances de conseguir um emprego”, diz Thornton.

No entanto, os desafios de conseguir o primeiro emprego não devem ser subestimados, especialmente para quem está mudando de carreira.

Hannah Blair

Hannah Blair teve que se transferir para uma escola só para meninos para estudar computadores

Demorou 14 meses para Carl Mungazi conseguir seu primeiro emprego, pois ele enfrentou um problema comum a muitos candidatos.

“Um dos entrevistadores me disse que tinha uma proposta, mas queriam que eu ganhasse mais experiência.”

Em última análise, seja qual for o caminho que você tomar nesse setor, você deve demonstrar um claro interesse e paixão pela programação.

“É um processo muito desafiador que realmente aumentará sua resistência mental, mas se você for capaz de seguir em frente, isso mudará seriamente sua vida”, conclui Thornton.

Publicado por BBC

Tem uma pergunta?
Nós estamos aqui para ajudar. Envie-nos um e-mail ou ligue-nos para (86) 3133-7070
Entrar em contato!
© 2017 iCEV Instituto de Ensino Superior