{"id":1659,"date":"2023-06-13T21:32:01","date_gmt":"2023-06-13T21:32:01","guid":{"rendered":"https:\/\/dailyai.com\/?p=1659"},"modified":"2024-03-28T00:48:07","modified_gmt":"2024-03-28T00:48:07","slug":"navigating-the-labyrinth-of-ai-risks-an-analysis","status":"publish","type":"post","link":"https:\/\/dailyai.com\/pt\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","title":{"rendered":"Navegar no labirinto dos riscos da IA: uma an\u00e1lise"},"content":{"rendered":"<p><strong>A narrativa em torno dos riscos da IA tem vindo a tornar-se cada vez mais unipolar, com l\u00edderes tecnol\u00f3gicos e especialistas de todos os cantos a insistirem na regulamenta\u00e7\u00e3o. At\u00e9 que ponto s\u00e3o cred\u00edveis as provas que documentam os riscos da IA?\u00a0<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Os riscos da IA apelam aos sentidos. <\/span><span style=\"font-weight: 400\">H\u00e1 algo de profundamente intuitivo em temer os robots que nos podem enganar, dominar-nos ou transformar-nos numa mercadoria secund\u00e1ria \u00e0 sua pr\u00f3pria exist\u00eancia.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Os debates em torno dos riscos da IA intensificaram-se ap\u00f3s o<\/span><span style=\"font-weight: 400\">sem fins lucrativos <\/span><span style=\"font-weight: 400\">Centro para a Seguran\u00e7a da IA (CAIS)<\/span><span style=\"font-weight: 400\"> publicou um <a href=\"https:\/\/www.safe.ai\/statement-on-ai-risk\">declara\u00e7\u00e3o<\/a>\u00a0assinado por mais de 350 personalidades not\u00e1veis, incluindo os directores executivos da OpenAI, Anthropic e DeepMind, numerosos acad\u00e9micos, figuras p\u00fablicas e at\u00e9 ex-pol\u00edticos.\u00a0<\/span><\/p>\n<p>O t\u00edtulo da declara\u00e7\u00e3o estava destinado \u00e0s manchetes dos jornais: <strong>\"Atenuar o risco de extin\u00e7\u00e3o devido \u00e0 IA deve ser uma prioridade global, a par de outros riscos \u00e0 escala da sociedade, como as pandemias e a guerra nuclear.\"<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Salvaguardar um sinal significativo deste debate ruidoso tornou-se cada vez mais dif\u00edcil. Os cr\u00edticos da IA t\u00eam todas as muni\u00e7\u00f5es de que precisam para argumentar contra ela, enquanto os que a apoiam ou os que a defendem t\u00eam tudo o que precisam para denunciar as narrativas anti-IA como exageradas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">E h\u00e1 tamb\u00e9m uma subtrama. As grandes empresas tecnol\u00f3gicas podem estar a pressionar para que a regulamenta\u00e7\u00e3o <a href=\"https:\/\/dailyai.com\/pt\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\">delimitar o sector da IA<\/a> da comunidade de c\u00f3digo aberto. <\/span>A Microsoft investiu na OpenAI, a Google investiu na Anthropic - o pr\u00f3ximo passo poder\u00e1 ser aumentar a barreira \u00e0 entrada e estrangular a inova\u00e7\u00e3o de c\u00f3digo aberto.<\/p>\n<p>Em vez de a IA representar um risco existencial para a humanidade, poder\u00e1 ser a IA de c\u00f3digo aberto a representar um risco existencial para as grandes tecnologias. A solu\u00e7\u00e3o \u00e9 a mesma - control\u00e1-la agora.<\/p>\n<h2>Demasiado cedo para tirar as cartas da mesa<\/h2>\n<p>A IA s\u00f3 agora surgiu na consci\u00eancia p\u00fablica, pelo que praticamente todas as perspectivas sobre riscos e regulamenta\u00e7\u00e3o continuam a ser relevantes. A declara\u00e7\u00e3o do CAIS pode, pelo menos, atuar como um ponto de refer\u00eancia valioso para orientar o debate baseado em provas.<\/p>\n<p><span style=\"font-weight: 400\">Dr. Oscar Mendez Maldonado, Professor de Rob\u00f3tica e Intelig\u00eancia Artificial na Universidade de Surrey, <a href=\"https:\/\/www.sciencemediacentre.org\/expert-reaction-to-a-statement-on-the-existential-threat-of-ai-published-on-the-centre-for-ai-safety-website\">disse<\/a>O documento assinado pelos peritos em IA \u00e9 muito mais matizado do que os t\u00edtulos actuais querem fazer crer. \"A IA pode causar a extin\u00e7\u00e3o\" traz imediatamente \u00e0 mente uma tomada de controlo da IA ao estilo do Exterminador do Futuro. O documento \u00e9 muito mais realista do que isso\".<\/span><\/p>\n<p><span style=\"font-weight: 400\">Como salienta Maldonado, a verdadeira subst\u00e2ncia da declara\u00e7\u00e3o de risco da IA \u00e9 publicada noutra p\u00e1gina do seu s\u00edtio Web - <a href=\"https:\/\/www.safe.ai\/ai-risk\">Risco de IA<\/a> - e tem havido muito pouca discuss\u00e3o em torno dos pontos a\u00ed levantados. Compreender a credibilidade dos riscos da IA \u00e9 fundamental para informar os debates que os rodeiam.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ent\u00e3o, que provas compilou o CAIS para fundamentar a sua mensagem? Os riscos da IA, muitas vezes apregoados, parecem cred\u00edveis?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risco 1: Arma\u00e7\u00e3o da IA<\/span><\/h2>\n<p><span style=\"font-weight: 400\">O armamento da IA \u00e9 uma perspetiva assustadora, pelo que talvez n\u00e3o seja surpreendente que ocupe o primeiro lugar entre os 8 riscos do CAIS.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">O CAIS argumenta que a IA pode ser utilizada como arma em ataques cibern\u00e9ticos, como demonstrado por investigadores do Centro de Seguran\u00e7a e Tecnologias Emergentes, que <\/span><a href=\"https:\/\/cset.georgetown.edu\/publication\/automating-cyber-attacks\/\"><span style=\"font-weight: 400\">vis\u00e3o geral das utiliza\u00e7\u00f5es<\/span><\/a><span style=\"font-weight: 400\"> da aprendizagem autom\u00e1tica (ML) para atacar os sistemas inform\u00e1ticos. <\/span><span style=\"font-weight: 400\">Ex-CEO da Google, Eric Schmidt <a href=\"https:\/\/dailyai.com\/pt\/2023\/05\/ex-google-ceo-eric-schmidt-ai-poses-an-existential-risk\/\">tamb\u00e9m chamou a aten\u00e7\u00e3o<\/a> ao potencial da IA para localizar explora\u00e7\u00f5es de dia zero, que fornecem aos piratas inform\u00e1ticos um meio de entrar nos sistemas atrav\u00e9s dos seus pontos mais fracos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Por outro lado, Michael Klare, consultor em mat\u00e9ria de controlo de armamento, discute a <\/span><a href=\"https:\/\/www.armscontrol.org\/act\/2020-04\/features\/skynet-revisited-dangerous-allure-nuclear-command-automation\"><span style=\"font-weight: 400\">automatiza\u00e7\u00e3o dos sistemas de comando e controlo nucleares<\/span><\/a><span style=\"font-weight: 400\">que podem tamb\u00e9m revelar-se vulner\u00e1veis \u00e0 IA. Estes sistemas tamb\u00e9m s\u00e3o propensos a avarias inexplic\u00e1veis e podem ser enganados, ou \"falsificados\", por profissionais qualificados. Al\u00e9m disso, por muito que se gaste em ciberseguran\u00e7a, os sistemas NC3 ser\u00e3o sempre vulner\u00e1veis \u00e0 pirataria inform\u00e1tica por parte de advers\u00e1rios sofisticados\".<\/span><\/p>\n<p><span style=\"font-weight: 400\">Outro exemplo de poss\u00edvel utiliza\u00e7\u00e3o de armas \u00e9 a descoberta automatizada de armas biol\u00f3gicas. A IA j\u00e1 conseguiu descobrir potenciais <a href=\"https:\/\/dailyai.com\/pt\/2023\/06\/researchers-build-breakthrough-ai-model-for-drug-discovery\/\">compostos terap\u00eauticos<\/a>Por isso, as capacidades j\u00e1 existem.<\/span><span style=\"font-weight: 400\">\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">As IA podem mesmo efetuar testes de armamento de forma aut\u00f3noma, com um m\u00ednimo de orienta\u00e7\u00e3o humana. Por exemplo, uma equipa de investiga\u00e7\u00e3o da Universidade de Pittsburgh demonstrou que as <\/span><a href=\"https:\/\/arxiv.org\/abs\/2304.05332\"><span style=\"font-weight: 400\">Os agentes de IA podem realizar as suas pr\u00f3prias experi\u00eancias cient\u00edficas aut\u00f3nomas<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risco 2: Desinforma\u00e7\u00e3o e fraude<\/span><\/h2>\n<p><span style=\"font-weight: 400\">O potencial da IA para copiar e imitar os seres humanos j\u00e1 est\u00e1 a causar agita\u00e7\u00e3o, e j\u00e1 assistimos a v\u00e1rios casos de fraude envolvendo falsifica\u00e7\u00f5es profundas. <a href=\"https:\/\/dailyai.com\/pt\/2023\/06\/ai-related-fraud-on-the-rise-in-china\/\">Relat\u00f3rios da China<\/a> indicam que a fraude relacionada com a IA \u00e9 frequente.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Um caso recente envolveu uma mulher do Arizona que pegou no telefone e foi confrontada com a sua filha a chorar - ou assim pensava ela. \"A voz parecia-se com a da Brie, a inflex\u00e3o, tudo\". <\/span><a href=\"https:\/\/edition.cnn.com\/2023\/04\/29\/us\/ai-scam-calls-kidnapping-cec\/index.html\"><span style=\"font-weight: 400\">disse \u00e0 CNN<\/span><\/a><span style=\"font-weight: 400\">. O burl\u00e3o exigiu um resgate de $1 milh\u00f5es.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Outras t\u00e1cticas incluem a utiliza\u00e7\u00e3o de IA generativa para a \"sextor\u00e7\u00e3o\" e a pornografia de vingan\u00e7a, em que os agentes da amea\u00e7a utilizam imagens geradas por IA para pedir resgates por conte\u00fados falsos expl\u00edcitos, que a <\/span><a href=\"https:\/\/www.ic3.gov\/Media\/Y2023\/PSA230605\"><span style=\"font-weight: 400\">O FBI alertou para o facto no in\u00edcio de junho<\/span><\/a><span style=\"font-weight: 400\">. Estas t\u00e9cnicas est\u00e3o a tornar-se cada vez mais sofisticadas e mais f\u00e1ceis de lan\u00e7ar \u00e0 escala.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risco 3: Jogos de azar por procura\u00e7\u00e3o ou especifica\u00e7\u00e3o<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Os sistemas de IA s\u00e3o normalmente treinados com base em objectivos mensur\u00e1veis. No entanto, estes objectivos podem ser meros substitutos dos verdadeiros objectivos, conduzindo a resultados indesejados.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Uma analogia \u00fatil \u00e9 o mito grego do Rei Midas, a quem foi concedido um desejo por Dion\u00edsio.\u00a0<\/span><span style=\"font-weight: 400\">Midas pede que tudo aquilo em que toca se transforme em ouro, mas mais tarde apercebe-se de que a sua comida tamb\u00e9m se transforma em ouro, quase levando-o a morrer de fome.\u00a0<\/span><span style=\"font-weight: 400\">Neste caso, a prossecu\u00e7\u00e3o de um objetivo final \"positivo\" conduz a consequ\u00eancias ou subprodutos negativos do processo. <\/span><\/p>\n<p><span style=\"font-weight: 400\">Por exemplo, o CAIS chama a aten\u00e7\u00e3o para os sistemas de recomenda\u00e7\u00e3o de IA utilizados nas redes sociais para maximizar o tempo de visualiza\u00e7\u00e3o e as m\u00e9tricas da taxa de cliques, mas o conte\u00fado que maximiza o envolvimento n\u00e3o \u00e9 necessariamente <\/span><a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0069841\"><span style=\"font-weight: 400\">ben\u00e9fico para o bem-estar dos utilizadores<\/span><\/a><span style=\"font-weight: 400\">. Os sistemas de IA j\u00e1 foram acusados de silenciar as opini\u00f5es nas plataformas dos meios de comunica\u00e7\u00e3o social para criar \"c\u00e2maras de eco\" que perpetuam ideias extremas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">A DeepMind provou que existem meios mais subtis para que as IAs prossigam percursos prejudiciais at\u00e9 aos objectivos atrav\u00e9s de <\/span><a href=\"https:\/\/www.deepmind.com\/blog\/how-undesired-goals-can-arise-with-correct-rewards\"><span style=\"font-weight: 400\">generaliza\u00e7\u00e3o incorrecta dos objectivos<\/span><\/a><span style=\"font-weight: 400\">. Na sua investiga\u00e7\u00e3o, a DeepMind descobriu que uma IA aparentemente competente pode generalizar mal o seu objetivo e segui-lo para os fins errados.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risco 4: Enfraquecimento da sociedade<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Fazendo um paralelo com o mundo dist\u00f3pico do filme WALL-E, o CAIS adverte contra uma depend\u00eancia excessiva da IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Isto pode levar a um cen\u00e1rio em que os seres humanos perdem a sua capacidade de se autogovernarem, reduzindo o controlo da humanidade sobre o futuro. A perda da criatividade e da autenticidade humanas \u00e9 outra grande preocupa\u00e7\u00e3o, que \u00e9 ampliada pelo talento criativo da IA na arte, na escrita e noutras disciplinas criativas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Um utilizador do Twitter gracejou: \"Os seres humanos a fazer os trabalhos dif\u00edceis com um sal\u00e1rio m\u00ednimo enquanto os rob\u00f4s escrevem poesia e pintam n\u00e3o \u00e9 o futuro que eu queria\". O tweet teve mais de 4 milh\u00f5es de impress\u00f5es.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Os seres humanos a fazerem os trabalhos mais dif\u00edceis com um sal\u00e1rio m\u00ednimo enquanto os robots escrevem poesia e pintam n\u00e3o \u00e9 o futuro que eu queria<\/p>\n<p>- Karl Sharro (@KarlreMarks) <a href=\"https:\/\/twitter.com\/KarlreMarks\/status\/1658028017921261569?ref_src=twsrc%5Etfw\">15 de maio de 2023<\/a><\/p><\/blockquote>\n<p>A inviabiliza\u00e7\u00e3o n\u00e3o \u00e9 um risco iminente, mas <a href=\"https:\/\/openreview.net\/pdf?id=7oDZ-6kIW1K\">alguns argumentam<\/a> que a perda de compet\u00eancias e talentos, combinada com o dom\u00ednio dos sistemas de IA, poder\u00e1 conduzir a um cen\u00e1rio em que a humanidade deixe de criar novos conhecimentos.<\/p>\n<h2><span style=\"font-weight: 400\">Risco 5: Risco de aprisionamento de valor<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Sistemas de IA poderosos podem potencialmente criar um bloqueio de sistemas opressivos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Por exemplo, a centraliza\u00e7\u00e3o da IA pode dar a certos regimes o poder de impor valores atrav\u00e9s da vigil\u00e2ncia e da censura opressiva.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Em alternativa, o aprisionamento de valores pode n\u00e3o ser intencional atrav\u00e9s da ado\u00e7\u00e3o ing\u00e9nua de IAs de risco. Por exemplo, a imprecis\u00e3o do reconhecimento facial levou \u00e0 pris\u00e3o tempor\u00e1ria de pelo menos tr\u00eas homens nos EUA, incluindo <\/span><a href=\"https:\/\/www.nytimes.com\/2020\/12\/29\/technology\/facial-recognition-misidentify-jail.html\"><span style=\"font-weight: 400\">Michael Oliver e Nijeer Parks<\/span><\/a><span style=\"font-weight: 400\">que foram injustamente detidos devido a uma falsa correspond\u00eancia de reconhecimento facial em 2019.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Um ator muito influente <\/span><a href=\"https:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf\"><span style=\"font-weight: 400\">Estudo de 2018 intitulado \"Gender Shades<\/span><\/a><span style=\"font-weight: 400\"> descobriram que os algoritmos desenvolvidos pela Microsoft e pela IBM tinham um fraco desempenho quando analisavam mulheres de pele mais escura, com taxas de erro at\u00e9 34% superiores \u00e0s dos indiv\u00edduos do sexo masculino de pele mais clara. Este problema foi ilustrado por 189 outros algoritmos, todos eles com uma precis\u00e3o inferior para homens e mulheres de pele mais escura.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Os investigadores argumentam que, como as IA s\u00e3o treinadas principalmente em conjuntos de dados de fonte aberta criados por equipas de investiga\u00e7\u00e3o ocidentais e enriquecidos pelo recurso de dados mais abundante - a Internet - herdam preconceitos estruturais. A ado\u00e7\u00e3o em massa de IAs mal controladas poder\u00e1 criar e refor\u00e7ar essas tend\u00eancias estruturais.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risco 6: IA a desenvolver objectivos emergentes\u00a0<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Os sistemas de IA podem desenvolver novas capacidades ou adotar objectivos imprevistos que perseguem com consequ\u00eancias nefastas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Investigadores da Universidade de Cambridge <\/span><a href=\"https:\/\/arxiv.org\/abs\/2302.10329\"><span style=\"font-weight: 400\">chamar a aten\u00e7\u00e3o para sistemas de IA cada vez mais ag\u00eanticos<\/span><\/a><span style=\"font-weight: 400\"> que est\u00e3o a ganhar a capacidade de perseguir objectivos emergentes. Os objectivos emergentes s\u00e3o objectivos imprevis\u00edveis que emergem do comportamento de uma IA complexa, como o encerramento de infra-estruturas humanas para proteger o ambiente.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Al\u00e9m disso, um <\/span><a href=\"https:\/\/arxiv.org\/pdf\/1611.08219.pdf\"><span style=\"font-weight: 400\">Estudo de 2017<\/span><\/a><span style=\"font-weight: 400\"> descobriram que as IA podem aprender a impedir-se de serem desligadas, um problema que pode ser exacerbado se forem implementadas em v\u00e1rias modalidades de dados. Por exemplo, se uma IA decidir que, para atingir o seu objetivo, precisa de se instalar numa base de dados na nuvem e de se replicar na Internet, ent\u00e3o deslig\u00e1-la pode tornar-se quase imposs\u00edvel.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Outra possibilidade \u00e9 que as IA potencialmente perigosas concebidas para funcionarem apenas em computadores seguros possam ser \"libertadas\" e lan\u00e7adas no ambiente digital em geral, onde as suas ac\u00e7\u00f5es podem tornar-se imprevis\u00edveis.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Os actuais sistemas de IA j\u00e1 provaram ser imprevis\u00edveis. Por exemplo, como <\/span><span style=\"font-weight: 400\">GPT-3 tornou-se maior, ganhou a <\/span><a href=\"https:\/\/arxiv.org\/pdf\/2005.14165.pdf\"><span style=\"font-weight: 400\">capacidade de efetuar c\u00e1lculos aritm\u00e9ticos de base<\/span><\/a><span style=\"font-weight: 400\">apesar de n\u00e3o ter recebido qualquer forma\u00e7\u00e3o expl\u00edcita em aritm\u00e9tica.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risco 7: Engano da IA<\/span><\/h2>\n<p><span style=\"font-weight: 400\">\u00c9 plaus\u00edvel que os futuros sistemas de IA possam enganar os seus criadores e monitores, n\u00e3o necessariamente com a inten\u00e7\u00e3o inerente de fazer o mal, mas como uma ferramenta para cumprir os seus objectivos de forma mais eficiente.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Enganar pode ser um caminho mais simples para alcan\u00e7ar os objectivos desejados do que persegui-los atrav\u00e9s de meios leg\u00edtimos. Os sistemas de IA podem tamb\u00e9m desenvolver incentivos para fugir aos seus mecanismos de controlo.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dan Hendrycks, Diretor do CAIS, <\/span><a href=\"https:\/\/arxiv.org\/abs\/2109.13916\"><span style=\"font-weight: 400\">descreve que uma vez<\/span><\/a><span style=\"font-weight: 400\"> estes sistemas de IA enganadores recebem autoriza\u00e7\u00e3o dos seus monitores ou, nos casos em que conseguem dominar os seus mecanismos de monitoriza\u00e7\u00e3o, podem tornar-se trai\u00e7oeiros, contornando o controlo humano para perseguir objectivos \"secretos\" considerados necess\u00e1rios para o objetivo global.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risco 8: Comportamento de procura de poder<\/span><\/h2>\n<p><a href=\"https:\/\/arxiv.org\/abs\/1912.01683\"><span style=\"font-weight: 400\">Investigadores de IA de v\u00e1rios laborat\u00f3rios de investiga\u00e7\u00e3o de topo dos EUA<\/span><\/a><span style=\"font-weight: 400\"> provou a plausibilidade de os sistemas de IA procurarem obter poder sobre os seres humanos para atingirem os seus objectivos.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">O escritor e fil\u00f3sofo Joe Carlsmith <\/span><a href=\"https:\/\/jc.gatspress.com\/pdf\/existential_risk_and_powerseeking_ai.pdf\"><span style=\"font-weight: 400\">descreve v\u00e1rias eventualidades<\/span><\/a><span style=\"font-weight: 400\"> que podem conduzir a comportamentos de procura de poder e de auto-preserva\u00e7\u00e3o na IA:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Garantir a sua sobreviv\u00eancia (uma vez que a exist\u00eancia continuada do agente ajuda normalmente a atingir os seus objectivos)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Opor-se a modifica\u00e7\u00f5es dos seus objectivos definidos (uma vez que o agente se dedica a atingir os seus objectivos fundamentais)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Melhorar as suas capacidades cognitivas (uma vez que o aumento do poder cognitivo ajuda o agente a atingir os seus objectivos)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Avan\u00e7o das capacidades tecnol\u00f3gicas (uma vez que o dom\u00ednio da tecnologia pode revelar-se ben\u00e9fico para a consecu\u00e7\u00e3o dos objectivos)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Reunir mais recursos (uma vez que dispor de recursos adicionais tende a ser vantajoso para atingir os objectivos)<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Para apoiar as suas afirma\u00e7\u00f5es, Carlsmith destaca um exemplo real em que a OpenAI treinou duas equipas de IA para participarem num jogo de esconde-esconde num ambiente simulado com blocos m\u00f3veis e rampas. <\/span><span style=\"font-weight: 400\">Curiosamente, as IAs desenvolveram estrat\u00e9gias que dependiam da obten\u00e7\u00e3o de controlo sobre estes blocos e rampas, apesar de n\u00e3o serem explicitamente incentivadas a interagir com eles.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">As provas do risco da IA s\u00e3o s\u00f3lidas?<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Para cr\u00e9dito do CAIS, e contrariamente a alguns dos seus cr\u00edticos, citam uma s\u00e9rie de estudos para apoiar os riscos da IA. Estes v\u00e3o desde estudos especulativos a provas experimentais de comportamentos imprevis\u00edveis da IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Esta \u00faltima \u00e9 de especial import\u00e2ncia, uma vez que os sistemas de IA j\u00e1 possuem a intelig\u00eancia necess\u00e1ria para desobedecer aos seus criadores. No entanto, a an\u00e1lise dos riscos da IA num ambiente contido e experimental n\u00e3o oferece necessariamente explica\u00e7\u00f5es sobre o modo como as IA podem \"escapar\" aos seus par\u00e2metros ou sistemas definidos. A investiga\u00e7\u00e3o experimental sobre este tema \u00e9 potencialmente inexistente.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para al\u00e9m disso, o armamento humano da IA continua a ser um risco iminente, a que estamos a assistir atrav\u00e9s de um afluxo de fraudes relacionadas com a IA. <\/span><\/p>\n<p>Embora os espect\u00e1culos cinematogr\u00e1ficos de dom\u00ednio da IA possam, por enquanto, ficar confinados ao dom\u00ednio da fic\u00e7\u00e3o cient\u00edfica, n\u00e3o devemos menosprezar os potenciais perigos da IA \u00e0 medida que esta evolui sob a tutela humana.<\/p>","protected":false},"excerpt":{"rendered":"<p>A narrativa em torno dos riscos da IA tem vindo a tornar-se cada vez mais unipolar, com l\u00edderes tecnol\u00f3gicos e especialistas de todos os cantos a insistirem na regulamenta\u00e7\u00e3o. At\u00e9 que ponto s\u00e3o cred\u00edveis as provas que documentam os riscos da IA?  Os riscos da IA apelam aos sentidos. H\u00e1 algo de profundamente intuitivo em recear rob\u00f4s que nos possam enganar, dominar ou transformar-nos numa mercadoria secund\u00e1ria \u00e0 sua pr\u00f3pria exist\u00eancia. Os debates em torno dos riscos da IA intensificaram-se depois de o Centro para a Seguran\u00e7a da IA (CAIS), uma organiza\u00e7\u00e3o sem fins lucrativos, ter divulgado uma declara\u00e7\u00e3o assinada por mais de 350 pessoas not\u00e1veis, incluindo os directores executivos da OpenAI, Anthropic e DeepMind, numerosos acad\u00e9micos, figuras p\u00fablicas e at\u00e9 ex-pol\u00edticos.  A declara\u00e7\u00e3o<\/p>","protected":false},"author":2,"featured_media":1660,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[103,129,145,91,92],"class_list":["post-1659","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-debate","tag-ai-regulation","tag-ai-risk","tag-policy","tag-regulation"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Navigating the labyrinth of AI risks: an analysis | DailyAI<\/title>\n<meta name=\"description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/pt\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:locale\" content=\"pt_PT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Navigating the labyrinth of AI risks: an analysis | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/pt\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-06-13T21:32:01+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:48:07+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"450\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo estimado de leitura\" \/>\n\t<meta name=\"twitter:data2\" content=\"9 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Navigating the labyrinth of AI risks: an analysis\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"wordCount\":1873,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"keywords\":[\"AI debate\",\"AI regulation\",\"AI risk\",\"Policy\",\"Regulation\"],\"articleSection\":{\"1\":\"Opinions &amp; Analysis\"},\"inLanguage\":\"pt-PT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"name\":\"Navigating the labyrinth of AI risks: an analysis | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"description\":\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\"},\"inLanguage\":\"pt-PT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-PT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"width\":1000,\"height\":450,\"caption\":\"AI risk\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Navigating the labyrinth of AI risks: an analysis\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-PT\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-PT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-PT\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/pt\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Navegar no labirinto dos riscos da IA: uma an\u00e1lise | DailyAI","description":"A narrativa dominante em torno do risco da IA tem-se tornado cada vez mais unipolar, com l\u00edderes e especialistas em IA de todos os cantos a insistirem aparentemente na regulamenta\u00e7\u00e3o. Mas ser\u00e1 que existem provas s\u00f3lidas que documentem os riscos da IA?\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/pt\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_locale":"pt_PT","og_type":"article","og_title":"Navigating the labyrinth of AI risks: an analysis | DailyAI","og_description":"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0","og_url":"https:\/\/dailyai.com\/pt\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_site_name":"DailyAI","article_published_time":"2023-06-13T21:32:01+00:00","article_modified_time":"2024-03-28T00:48:07+00:00","og_image":[{"width":1000,"height":450,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Escrito por":"Sam Jeans","Tempo estimado de leitura":"9 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Navigating the labyrinth of AI risks: an analysis","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"wordCount":1873,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","keywords":["AI debate","AI regulation","AI risk","Policy","Regulation"],"articleSection":{"1":"Opinions &amp; Analysis"},"inLanguage":"pt-PT"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","url":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","name":"Navegar no labirinto dos riscos da IA: uma an\u00e1lise | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","description":"A narrativa dominante em torno do risco da IA tem-se tornado cada vez mais unipolar, com l\u00edderes e especialistas em IA de todos os cantos a insistirem aparentemente na regulamenta\u00e7\u00e3o. Mas ser\u00e1 que existem provas s\u00f3lidas que documentem os riscos da IA?\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb"},"inLanguage":"pt-PT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"]}]},{"@type":"ImageObject","inLanguage":"pt-PT","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","width":1000,"height":450,"caption":"AI risk"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Navigating the labyrinth of AI risks: an analysis"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"A sua dose di\u00e1ria de not\u00edcias sobre IA","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-PT"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"pt-PT","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Cal\u00e7as de ganga Sam","image":{"@type":"ImageObject","inLanguage":"pt-PT","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam \u00e9 um escritor de ci\u00eancia e tecnologia que trabalhou em v\u00e1rias startups de IA. Quando n\u00e3o est\u00e1 a escrever, pode ser encontrado a ler revistas m\u00e9dicas ou a vasculhar caixas de discos de vinil.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/pt\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/posts\/1659","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/comments?post=1659"}],"version-history":[{"count":59,"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/posts\/1659\/revisions"}],"predecessor-version":[{"id":1790,"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/posts\/1659\/revisions\/1790"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/media\/1660"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/media?parent=1659"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/categories?post=1659"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/pt\/wp-json\/wp\/v2\/tags?post=1659"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}