MÚSICA E INTELIGÊNCIA ARTIFICIAL

Quando pensamos nos primórdios do relacionamento entre humanos, máquinas e música, talvez venha à cabeça o pop do Kraftwerk ou paisagens sonoras de Delia Derbyshire, pioneira em música eletrônica na Inglaterra, que morreu em 2001 e conhecida por seus trabalhos na BBC Radiophonic Workshop. A música eletrônica, seja pras pistas, pra introspecção, pras trilhas artísticas de cinema, teatro, televisão ou rádio, nos leva a um longo relacionamento nessa tríade.

Ano passado, a Universidade de Canterbury, nos subúrbios da pequena cidade de Christchurch (ainda assim a terceira maior da Nova Zelândia, com quatrocentos mil habitantes), através do professor Jack Copeland e do compositor Jason Long, recriou a primeira peça de gravação musical feita por uma máquina, em 1951. Ela foi elaborada por Alan Turing, o gênio matemático que desovou o embrião da computação. O disco de acetato de apenas um lado, de doze polegadas, captura três melodias tocadas por um computador primitivo que era grande o suficiente pra ocupar quase todo o espaço do laboratório de Turing.

A história é fascinante.

O problema enfrentado pelos dois estudiosos era como conseguir o tom correto de uma gravação histórica. Sem saber como a gravação original soava, ficou bem complicado – ou mesmo impossível – afirmar que tal gravação estaria no tom certo. Essa era a mais antiga gravação de uma música gerada por computador. Em 1951, uma unidade de transmissão externa da BBC em Manchester usou um gravador portátil de vinil pra capturar três melodias tocadas por um computador.

Hoje, tudo o que sobrou da sessão de gravação é o tal doze polegadas. O próprio computador já foi há muito desmontado, então a gravação é a nossa única passagem pra aquele momento histórico. A decepção foi grande ao descobrir que os tons não eram precisos: a gravação é uma áspera impressão de como o computador soou. Mas com algum trabalho de detetive eletrônico foi possível restaurar a gravação – resultando na possibilidade de todo mundo ouvir, pela primeira vez em mais de meio século, o verdadeiro som que aquele computador primitivo emitiu.

O trabalho pioneiro de Alan Turing, no final da década de 1940, sobre a transformação do computador em instrumento musical, tem sido largamente ignorado: é um mito urbano do mundo da música que as primeiras notas musicais geradas por um computador foram ouvidas em 1957, nos laboratórios da Bell, nos Esteites (vale ler sobre esse outro disco pioneiro aqui). O recente Oxford Handbook Of Computer Music clama que o primeiro computador a tocar notas musicais estava localizado em Sidney, na Austrália. Entretanto, o computador de Sidney não estava operacional até o fim de 1950, enquanto as notas geradas por um computador estavam saindo de um auto-falante do laboratório de Turing desde meados de 1948 (a foto que abre este artigo é dessa época).

O computador de Turing tinha uma instrução especial que fazia com que o auto-falante – que Turing chamava de “hooter” (de “buzina”, na referência do matemático) – emitisse um curto pulso de som, durando uma pequena fração de segundo. Turing disse que soava como “algo entre um gotejar, um clique ou um tapa”. Executar tal instrução repetidamente resultou neste “clique”, a cada quatro tiques internos do computador – algo como “tique tique tique clique, tique tique tique clique, tique tique tique clique”. Daí, repetia a instrução tantas vezes quanto necessário pra que o ouvido humano percebesse não cliques discretos, mas uma nota constante, que aqui era um dó duas oitavas acima do dó normal.

Turing percebeu que, se a instrução “hoot” fosse repetida não apenas repetidamente, mas em padrões diferentes, então o ouvido humanos perceberia notas musicais diferentes: por exemplo, o padrão repetido “tique tique tique clique, tique tique tique tique, tique tique tique clique, tique tique tique tique” produzia um dó uma oitava acima do dó normal; enquanto mudar o padrão pra “tique tique tique clique, tique tique tique clique, tique tique tique tique, tique tique tique clique, tique tique tique clique, tique tique tique tique” produzia um fá maior com quarta, quatro notas acima do dó médio – e por aí vai. Foi uma descoberta maravilhosa.

Turing não estava muito interessado em programar o computador pra tocar músicas convencionais: ele usava as notas diferentes pra indicar o que estava acontecendo no computador – uma nota pra “trabalho encerrado”, outra para “dígitos sobrecarregando a memória”, “erro na transferência de dados pro disco magnético”, e assim por diante. Executar um dos programas de Turing deve ter sido um negócio barulhento, com diferentes notas musicais e ritmos de cliques que permitem ao usuário “ouvir” (como ele colocou) o que o computador estava fazendo. Ele deixou pra outra pessoa, no entanto, programar a primeira música completa.

Um jovem professor chamado Christopher Strachey (morto em 1975) pegou uma cópia do manual de programadores que Turing fez pra usar o computador Mark II de Manchester (o computador Mark II substituiu o protótipo Mark I, que também tocava notas, no início de 1951). Era o primeiro manual de programação de computadores do mundo. Strachey, um talentoso pianista, estudou o manual e viu o potencial das orientações concisas de Turing sobre como programar notas musicais. Prestes a se tornar um dos maiores cientistas da computação da Grã-Bretanha, Strachey apareceu no laboratório de Turing com o que era na época o programa de computador mais longo que já havia sido tentado. Turing conhecia bem o precoce Strachey pra deixá-lo usar o computador por uma noite. “Turing entrou e me deu uma típica descrição de como usar a máquina”, relatou Strachey; e então Turing partiu, deixando-o sozinho no console do computador até a manhã seguinte.

Dois livros contam bem esse trecho da história: “Turing: Pioneer Of The Information Age”, do professor Jack Copeland, publicado em 2012; e “The Turing Guide”, pelo mesmo Copeland, com Jonathan Bowen, Robin Wilson e Mark Sprevak. Ambos citam como base a entrevista que Strachey deu a Nancy Foy, em 1974.

“Sentei-me diante dessa enorme máquina”, disse Strachey, “com quatro ou cinco fileiras de vinte chaves e tals, numa sala que parecia a sala de controle de um navio de batalha”. Foi a primeira de todas as sessões de programação. Pela manhã, pro espanto dos espectadores, o computador tocou o hino nacional. Turing, um habitual monossilábico, disse com entusiasmo “que show!”. Strachey dificilmente poderia pensar em uma maneira melhor de chamar a atenção: algumas semanas depois ele recebeu uma carta oferecendo-lhe um emprego no laboratório de computação.

A gravação da BBC, feita algum tempo mais tarde no mesmo ano, incluiu não apenas o hino nacional, mas também uma interpretação cativante, embora um tanto impetuosa, da rima infantil “Baa Baa Black Sheep”, bem como uma apresentação do famoso sucesso de Glenn Miller “In The Mood”.

Há questões não resolvidas sobre a autoria das três rotinas computacionais que tocaram essas melodias gravadas. Na sequência do tour de force de Strachey, várias pessoas no laboratório começaram a escrever programas de música: até mesmo a rotina que tocou o hino nacional na gravação pode ter sido uma versão retocada do original de Strachey.

Era um desafio escrever rotinas que manteriam o computador em sintonia, uma vez que o Mark II só poderia aproximar o verdadeiro tom de muitas notas. Por exemplo, o verdadeiro tom de sol na quarta aumentada é 196 Hertz, mas a freqüência mais próxima que o Mark II poderia chegar estava bem fora da nota, em 198,41 Hertz. Descobriu-se que havia informações suficientes no maravilhoso Manual de Programadores do Turing pra nos permitir calcular todas as frequências audíveis que o Mark II poderia produzir. No entanto, quando se fez uma análise de freqüência da gravação da BBC em 1951 (usando a cópia de preservação digital da Biblioteca Britânica), os pesquisadores descobriram que as frequências estavam alteradas. O efeito dessas mudanças é tão grave que os sons na gravação muitas vezes têm apenas uma relação muito precária com os sons que o computador teria realmente produzido. Tão distante estava a gravação do original que muitas das frequências gravadas eram aquelas que seriam impossíveis pro Mark II tocar.

Naturalmente, os Copeland e Long queriam descobrir o verdadeiro som do computador. Esses “tons impossíveis” na gravação provaram ser a chave pra chegar lá: a análise assistida por computador das diferenças de freqüência – entre os tons impossíveis e os tons reais que o computador teria tocado – revelou que a música gravada estava rodando numa velocidade incorreta. Isso se deu provavelmente pela plataforma giratória do gravador móvel girando muito rápido enquanto o disco de acetato estava sendo cortado: alcançar a constância da velocidade era sempre um problema com o equipamento de gravação móvel padrão da BBC naquele tempo. Assim, quando o disco era reproduzido na velocidade padrão de 78 rpm, as frequências foram sistematicamente alteradas.

Os dois conseguiram calcular exatamente o quanto a gravação teve que ser acelerada pra reproduzir o som original do computador. Também filtraram o ruído estranho à gravação; e, usando um software de correção de tom, puderam remover os efeitos de uma oscilação problemática na velocidade da gravação (provavelmente pelo processo de corte de disco). E, então, chegaram ao resultado final.

O som original do computador de Turing, na primeira gravação de uma música gerada por computador, pode ser ouvido abaixo:

Os trechos originais dessa história foram tirados do artigo publicado em 15 de setembro de 2016 pela Biblioteca Britânica (leia aqui), história escrita e contada pelos próprios Copeland e Long.

Mas e a partir daí, o quanto se avançou no intento das máquinas criarem música – e não só executarem programas que resultem em música? Ou, mais longe ainda, será que teremos máquinas que, independente da manipulação de seres humanos, possam criar e executar música, algo como uma “inteligência artificial” da música?

Quase 70 anos depois dos experimentos de Turing, nos encontramos na era de “Daddy’s Car”, a primeira música a ser composta por Inteligência Artificial. Sim, ela já existe, embora ainda numa jornada bem inicial.

Programada pra escrever uma canção no estilo dos Beatles, um sistema de Inteligência Artificial, no laboratório Flow Machine, em Paris, criou a melodia e a harmonia de “Daddy’s Car” depois de analisar um banco de dados de mais de treze mil faixas em diferentes estilos musicais, desde jazz e pop, até samba brasileiro e musicais da Broadway.

A música que vem do computador-cérebro FlowComposer é definida pelas limitações definidas pra ele – uma certa nota, estrutura de acordes ou artista específico pra analisar, por exemplo.

O resultado é impressionante, embora alguns possam dizer que soa mais como o Super Furry Animals ou como um polido 13th Floor Elevators do que como o Fab Four (e isso pode ser ótimo, na verdade). Mas com um álbum inteiro planejado pra 2017, “Daddy’s Car” é apenas uma dica das capacidades do FlowComposer.

A canção pode ser ouvida abaixo. É um pop singelo e assobiável:

Mais sobre o FlowComposer você pode conhecer no site próprio, clicando aqui.

Aqui, um vídeo explicando as intenções da Flow Machine:

“Estamos à beira de uma revolução neste campo”, disse Fiammetta Ghedini, pesquisadora da Flow Machines à Fact Magazine, de onde o artigo que você está lendo tirou sua tradução livre. Ela descreve o trabalho da equipe como “um projeto não-comercial pra cooperar e colaborar com seres humanos pra ajudar a criar música”. E reforça: o FlowComposer ainda não é “independente” no ato de criar, ele ainda precisa da influência e gerência humanas.

“É fácil recriar quilômetros de música que não tem um começo ou um fim”, diz Ghedini. “Mas criar uma música com uma ponte, uma intro, um rife e todo esse tipo de estrutura, isso é difícil”. Sim, a Flow Machine conseguiu criar uma melodia e uma harmonia pra “Daddy’s Car”, mas a música ainda precisou ser estruturada, produzida e cantada pelo compositor residente Benoît Carré.

Mas se o FlowComposer fosse capaz de criar música de forma independente, isso o torna um músico? É a pergunta que faz Jack Needham, autor do texto original da Fact.

“Se você está falando de Inteligência Artificial, você tem que perguntar: o que um sistema de Inteligência Artificial tem que fazer pra ser um músico? Na essência, ele não pode simplesmente fazer o que está sendo dito para fazer”, diz Geraint Wiggins, professor de criatividade computacional na Queen Mary, Universidade de Londres. “Se eu colocar uma trilha na frente de músicos profissionais e dizer-lhes pra tocá-la e eles o fizessem, por que eles estariam sendo musicalmente inteligente? Bem, porque eles estariam perguntando, ‘como posso interpretar tal trilha’? Ou, ‘devo mudar o andamento’? Eles estão entendendo a música e interpretando-a, não apenas reproduzindo uma seqüência de notas que você dá a eles. Se uma máquina quer produzir a música que soa boa aos seres humanos tem que ter alguma noção de como os seres humanos sentem. Hoje, os computadores podem simular nossos sentimentos, mas não há nada de artístico nisso”.

As representações da Inteligência Artificial na cultura pop, a partir do malicioso Hal9000 em “2001: Uma Odisseia No Espaço” até a Skynet de “O Exterminador Do Futuro”, sem contar a tristeza solitária, derivada do preconceito, do menino-robô em “AI – Inteligência Artificial”, de Spielberg, sugerem que estamos céticos de seu potencial. Nossos encontros na vida real até hoje mal dissiparam nossas ansiedades – lembre-se de quando uma Inteligência Artificial de propriedade da Microsoft evoluiu pra um bot racista do Twitter em apenas algumas horas (leia a bizarra história aqui)? Mas essa mentalidade ainda pode mudar. Embora os usos musicais pra Inteligência Artificial estejam na infância, ela já está afetando nossas vidas diárias. Sistemas domésticos inteligentes como o Amazon Echo estão fazendo tarefas anteriormente impossíveis, como ligar um lightswitch de maneira mais fácil do que nunca (aparentemente eles têm outros usos, mas a maioria das pessoas parece mais interessada em fazê-los falar uns com os outros), enquanto carros-sem-motorista Tesla estão prevendo acidentes de trânsito antes mesmo de terem acontecido. Estamos aceitando a Inteligência Artificial quando isso torna nossas vidas mais fáceis, mas quando se trata de atividades criativas, não temos o mesmo entusiasmo.

“As pessoas têm preconceito contra todas as coisas criativas produzidas por um computador”, diz Ghedini. A reação ao projeto Flow Machines – que a Verge chamou de “um alerta terrível pra humanidade” – nos mostra que a música criada artificialmente é muito mais perturbadora pra nós do que o auto-corretor ou um dispositivo qualquer que nos faça ganhar cinco minutos na nossa rotina matinal.

Então, quando as máquinas vão assumir o controle? “Estamos realmente muito perto de uma revolução na Inteligência Artificial e acho que ela vai assumir um monte de atividades humanas”, diz Ghedini. “Mas o que queremos fazer é aumentar as possibilidades criativas sem substituí-las, porque se deixarmos que isso aconteça, vai ser um pouco assustador. Portanto, pra nós, o lance é construir uma ferramenta que permita que você tenha novas ideias, e não que substitua essas ideias”.

O músico Bill Baird concorda. “Você tem que usar a IA como uma ferramenta, não como um atalho”, diz o artista experimental e ex-membro do Sound Team. O último LP de Baird, “Summer Is Gone”, usa um algoritmo personalizado pra criar um álbum exclusivo pra cada ouvinte, com base na sua localização exata e na hora do dia. É uma experiência interessante, vale muito a pena ouvir aqui. O site avisa: “o disco que você está prestes a ouvir é único pra cada ouvinte”. Você clica e ele toca por uma hora. A partir daí, é outro disco, embora seu local seja o mesmo (mas se você leitor estiver na cidade vizinha, o disco também será outro), isso porque, como avisa o site, “nenhum momento se repetirá novamente”.

“É como um monte de pinos em uma fechadura”, ele explica (ou tenta explicar). “Ele usa um termo matemático chamado fatoriais – cada vez que alguém se loga gera uma seqüência aleatória que é, em seguida, ligada a um banco de dados e memorizado”. Com cada reprodução, uma nova seqüência é criada e cruzada com a base de dados pra formar um padrão musical único. “Eu acho que a tecnologia é muito mais interessante quando você cria algo que não é possível usando meios normais”, argumenta. “Se você está tentando recriar algo que você pode fazer na vida real, então qual é o propósito?”.

É preciso também ser criativo pra experimentar. É preciso ter bagagem, vivência. Baird criou seu projeto a partir da sua experiência própria como músico. Seu marco nasceu da sua vivência e sentimentos.

“Daddy’s Car”, a música criada pelo FlowComposer, é um marco pra IA, só que o objetivo da Flow Machine não é apenas reorganizar o passado artificialmente, mas ajudar os seres humanos a criarem música pro futuro – pelo menos em teoria. Inteligência Artificial poderia ser apenas mais um avanço tecnológico usado pra fazer música, o próximo passo além de baterias eletrônicas, sintetizadores e mesas de som digitais em nossos quartos. E se você pudesse realizar uma jam session em casa com uma banda artificialmente inteligente? Ou criar um improvisado show ao vivo que reage em tempo real com uma multidão? O potencial pra músicos amadores e profissionais seria enorme.

“Acho que o impacto social será que os companheiros de composição artificialmente inteligentes nos estimularão a experimentar coisas novas”, diz Wiggins. Na verdade, este método de produção de música já está sendo usado. No ano passado, “No Man’s Sky”, o interminável e sempre em evolução jogo de exploração, veio com uma trilha sonora igualmente expansiva do 65daysofstatic, de Sheffield. Usando uma série complexa de algoritmos pra marcar o jogo de 585 bilhões de anos, a trilha sonora não só se regenera em formas novas e inéditas à medida que o jogo avança, mas também responde a mudanças na jogabilidade – por exemplo, onde a música que induz ao medo é necessária, num momento tenso, ela surge.

Mas, tanto quanto a Inteligência Artificial poderia ser usada para ajudar os seres humanos a criar formas artísticas mais complexas, também poderia reduzir nossas cargas de trabalho. Como o sucesso de “Daddy’s Car” indica, há um óbvio potencial da IA ser desenvolvida pra ghostwriting, ou mesmo pra criar uma autônoma estrela pop virtual. “Cada geração tem o seu equivalente”, diz Wiggins sobre ghostwriting. “A música popular tende a ser muito estruturada. Se você olhar pra música trance, é muito predefinida e tende a ter exatamente a mesma estrutura, de modo que é muito possível replicar com bastante facilidade”.

Ele acrescenta que o que seria muito mais impressionante é se da Inteligência Artificial surgisse uma nova forma musical: “é fácil pros programas aprenderem uma seqüência de acordes ou harmonizarem uma melodia, mas conseguir um que diga o que a estrutura de uma música deve ser é realmente a grande coisa. Isso é sem dúvida a diferença entre recriar música popular e criar música artística”.

É verdade que, por enquanto, a IA não pode replicar o lirismo politicamente carregado de um verso de Yasiin Bey/Mos Def, ou a imaginação caleidoscópica de Björk – mas o mimetismo pode não estar onde o potencial musical da IA está. A Inteligência Artificial não vai nos trazer o próximo Miles Davis ou Philip Glass, mas poderia ser usada por uma nova geração de artistas pra se dar conta de ideias que eram antes impossíveis. Enquanto a IA ainda está em sua infância, ela já está sendo usada pra levar a música a um território desconhecido – e não há nada a GOLPISTA. Assim como a realidade virtual não é um substituto pro nosso ambiente natural, mas uma maneira de aumentá-lo, a Inteligência Artificial poderia ser o próximo salto tecnológico em nossa criatividade.

Leia mais:

Comentários

comentários

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.