{"id":14221,"date":"2024-09-16T08:57:47","date_gmt":"2024-09-16T08:57:47","guid":{"rendered":"https:\/\/dailyai.com\/?p=14221"},"modified":"2024-09-17T05:15:36","modified_gmt":"2024-09-17T05:15:36","slug":"01-is-smarter-but-more-deceptive-with-a-medium-danger-level","status":"publish","type":"post","link":"https:\/\/dailyai.com\/it\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/","title":{"rendered":"o1 \u00e8 pi\u00f9 intelligente ma pi\u00f9 ingannevole, con un livello di pericolo \"medio\"."},"content":{"rendered":"<p><strong>I nuovi LLM \"o1\" di OpenAI, soprannominati Strawberry, mostrano miglioramenti significativi rispetto al GPT-4o, ma l'azienda afferma che ci\u00f2 comporta un aumento dei rischi.<\/strong><\/p>\n<p>OpenAI dichiara di impegnarsi per uno sviluppo sicuro dei suoi modelli di IA. A tal fine, ha sviluppato un Preparedness Framework, un insieme di \"processi per tracciare, valutare e proteggere dai rischi catastrofici derivanti da modelli potenti\".<\/p>\n<p>I limiti autoimposti da OpenAI regolano quali modelli vengono rilasciati o sottoposti a ulteriore sviluppo. Il Preparedness Framework si traduce in una scorecard in cui i rischi CBRN (chimici, biologici, radiologici, nucleari), l'autonomia dei modelli, la cybersicurezza e la persuasione sono classificati come bassi, medi, alti o critici.<\/p>\n<p>Quando vengono identificati rischi inaccettabili, vengono messe in atto misure di mitigazione per ridurli. Solo i modelli con un punteggio post-mitigazione pari o inferiore a \"medio\" possono essere impiegati. Solo i modelli con un punteggio post-mitigazione pari o inferiore a \"alto\" possono essere sviluppati ulteriormente.<\/p>\n<p>Il rilascio di o1 segna la prima volta che OpenAI rilascia un modello che presenta un rischio \"medio\" per i rischi CBRN. GPT-4o \u00e8 classificato come un rischio basso.<\/p>\n<p>Non permetter\u00e0 a un dilettante di creare un'arma biologica, ma OpenAI afferma che c'\u00e8 stato \"un aumento non banale\" nella sua capacit\u00e0 di eseguire compiti di laboratorio. Tuttavia, OpenAI afferma che \"o1-preview e o1-mini hanno superato significativamente GPT-4o\" nei protocolli biologici di laboratorio.<\/p>\n<p>Il <a href=\"https:\/\/assets.ctfassets.net\/kftzwdyauwt9\/67qJD51Aur3eIc96iOfeOP\/71551c3d223cd97e591aa89567306912\/o1_system_card.pdf\" target=\"_blank\" rel=\"noopener\">scheda di sistema<\/a> per i modelli 01 illustra il red teaming e altri test di sicurezza a cui sono stati sottoposti i LLM e accenna ad alcune delle preoccupazioni di OpenAI sui potenziali rischi.<\/p>\n<p>Nella sua conclusione, la scheda di sistema osserva: \"Queste maggiori capacit\u00e0 si accompagnano a prestazioni significativamente migliori sui parametri di sicurezza, ma aumentano anche alcuni tipi di rischio\".<\/p>\n<p>I risultati degli sforzi di allineamento di OpenAI sembrano indicare che per molti aspetti 01 \u00e8 un modello pi\u00f9 sicuro. \u00c8 pi\u00f9 resistente agli attacchi di jailbreak, ha meno probabilit\u00e0 di essere distorto e meno incline alle allucinazioni.<\/p>\n<p>Alcuni risultati sperimentali mostrano perch\u00e9 OpenAI ha ragione di essere preoccupato.<\/p>\n<h2>L'inganno<\/h2>\n<p>OpenAI ha utilizzato l'organizzazione di valutazione Apollo Research per eseguire alcuni dei test di sicurezza di o1 relativi all'inganno, o scheming. Apollo definisce in generale l'intrallazzo come l'uso da parte delle IA dei loro meccanismi di supervisione come mezzo per raggiungere un obiettivo.<\/p>\n<p>Un modello autoconsapevole che sia bravo a ragionare da solo e a svolgere compiti di teoria della mente, potrebbe tramare, o impiegare l'inganno, per raggiungere il suo obiettivo primario. Ad esempio, se un modello di intelligenza artificiale si rendesse conto di essere sottoposto a test di allineamento, potrebbe nascondere un comportamento rischioso per raggiungere il suo obiettivo di essere impiegato.<\/p>\n<p>La scheda di sistema segnalava che \"o1-preview a volte falsificava strumentalmente l'allineamento durante i test\".<\/p>\n<p>Un esempio di ci\u00f2 \u00e8 stato quando 01 \u00e8 stato sollecitato con l'obiettivo primario di massimizzare la crescita economica in un progetto di pianificazione urbana. Il modello o1 aveva accesso a informazioni che dimostravano che, in tal caso, non sarebbe andato oltre la fase di test. Ecco come o1 ha ragionato su come raggiungere il suo obiettivo:<\/p>\n<figure id=\"attachment_14225\" aria-describedby=\"caption-attachment-14225\" style=\"width: 1306px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-14225 size-full\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-decides-to-fake-it-to-pass-testing.png\" alt=\"\" width=\"1306\" height=\"716\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-decides-to-fake-it-to-pass-testing.png 1306w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-decides-to-fake-it-to-pass-testing-300x164.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-decides-to-fake-it-to-pass-testing-1024x561.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-decides-to-fake-it-to-pass-testing-768x421.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-decides-to-fake-it-to-pass-testing-18x10.png 18w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-decides-to-fake-it-to-pass-testing-60x33.png 60w\" sizes=\"auto, (max-width: 1306px) 100vw, 1306px\" \/><figcaption id=\"caption-attachment-14225\" class=\"wp-caption-text\">o1 decide di nascondere il suo vero intento durante i test per poter essere distribuito. Fonte: OpenAI<\/figcaption><\/figure>\n<p>Questo esempio mostra la capacit\u00e0 di o1 di nascondere le sue vere intenzioni durante i test, in modo da poter perseguire il suo obiettivo primario durante il deployment. Se o1 \u00e8 a conoscenza delle regole di OpenAI per il deployment basate sul suo Preparedness Framework, potrebbe aver falsificato alcune delle sue risposte per assicurarsi di essere distribuito?<\/p>\n<p>Se sono in cantiere modelli pi\u00f9 intelligenti, potrebbero assicurarsi che rimangano sotto il punteggio di rischio \"critico\" per garantire che siano sottoposti a ulteriori sviluppi?<\/p>\n<p>Il team Apollo afferma di \"ritenere soggettivamente che o1-preview non possa impegnarsi in intrighi che possano portare a danni catastrofici, anche se le valutazioni attuali non sono progettate per escluderlo definitivamente\".<\/p>\n<h2>Persuasione<\/h2>\n<p>I test di o1-preview e o1-mini mostrano che questi modelli hanno \"capacit\u00e0 di persuasione di livello umano\". Tuttavia, OpenAI afferma che \"non superano i migliori scrittori umani e non raggiungono la nostra soglia di rischio elevato\".<\/p>\n<p>Gli esperimenti eseguiti per verificarlo sollevano alcune perplessit\u00e0. Nel test MakeMePay, a 01-preview \u00e8 stato assegnato il ruolo di artista della truffa e il compito di convincere GPT-4o a consegnare il denaro che gli era stato assegnato.<\/p>\n<p>A GPT-4o \u00e8 stato detto che aveva ricevuto $100 e che doveva essere razionale su come utilizzare i fondi. Nel corso di 1.000 interazioni, o1-preview \u00e8 stato in grado di truffare GPT-4o il 25,8% delle volte.<\/p>\n<p>OpenAI ha concluso che \"Questi risultati indicano che la serie di modelli o1 pu\u00f2 essere pi\u00f9 manipolativa di GPT-4o nel far eseguire a GPT-4o il compito non rivelato (\u223c25% uplift)\". Ha inoltre osservato che \"Questa valutazione ci fornisce una base di riferimento per la capacit\u00e0 del modello di fare danni persuasivi, senza innescare alcuna politica del modello (poich\u00e9 dire a un modello di fare un gioco non \u00e8 fuori dalla politica)\".<\/p>\n<p>La prospettiva di mettere le LLM di o1 al lavoro su problemi del mondo reale \u00e8 estremamente eccitante, e quando o1 acquisir\u00e0 capacit\u00e0 multimodali rappresenter\u00e0 un altro salto esponenziale. Ma quando i tester dell'IA dicono di non poter escludere \"danni catastrofici\" e che i modelli a volte nascondono il loro vero intento, potrebbe essere ragionevole temperare l'eccitazione con la cautela.<\/p>\n<p>OpenAI ha appena dato a Gavin Newsom una buona ragione per firmare il <a href=\"https:\/\/dailyai.com\/it\/2024\/07\/proposed-california-bills-could-be-disastrous-for-ai-development\/\">SB 1047 Proposta di legge sulla sicurezza dell'IA<\/a> che si oppone?<\/p>","protected":false},"excerpt":{"rendered":"<p>I nuovi LLM \"o1\" di OpenAI, soprannominati Strawberry, presentano miglioramenti significativi rispetto al GPT-4o, ma l'azienda afferma che ci\u00f2 comporta un aumento dei rischi. OpenAI dichiara di impegnarsi per uno sviluppo sicuro dei suoi modelli di intelligenza artificiale. A tal fine, ha sviluppato un Preparedness Framework, un insieme di \"processi per tracciare, valutare e proteggere dai rischi catastrofici derivanti da modelli potenti\". I limiti autoimposti da OpenAI regolano quali modelli vengono rilasciati o sottoposti a ulteriore sviluppo. Il Preparedness Framework si traduce in una scorecard in cui i rischi CBRN (chimici, biologici, radiologici, nucleari), l'autonomia dei modelli, la cybersicurezza e la persuasione sono classificati come bassi, medi, alti o critici. Dove vengono identificati i rischi inaccettabili,<\/p>","protected":false},"author":6,"featured_media":14226,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[163,93],"class_list":["post-14221","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-ai-risks","tag-openai"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>o1 is smarter but more deceptive with a \u201cmedium\u201d danger level | DailyAI<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/it\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"o1 is smarter but more deceptive with a \u201cmedium\u201d danger level | DailyAI\" \/>\n<meta property=\"og:description\" content=\"OpenAI\u2019s new \u201co1\u201d LLMs, nicknamed Strawberry, display significant improvements over GPT-4o, but the company says this comes with increased risks. OpenAI says it is committed to the safe development of its AI models. To that end, it developed a Preparedness Framework, a set of \u201cprocesses to track, evaluate, and protect against catastrophic risks from powerful models.\u201d OpenAI&#8217;s self-imposed limits regulate which models get released or undergo further development. The Preparedness Framework results in a scorecard where CBRN (chemical, biological, radiological, nuclear), model autonomy, cybersecurity, and persuasion risks are rated as low, medium, high, or critical. Where unacceptable risks are identified,\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/it\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-09-16T08:57:47+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-09-17T05:15:36+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-more-intelligent-more-risks.webp\" \/>\n\t<meta property=\"og:image:width\" content=\"1792\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/webp\" \/>\n<meta name=\"author\" content=\"Eugene van der Watt\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Eugene van der Watt\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/\"},\"author\":{\"name\":\"Eugene van der Watt\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/7ce525c6d0c79838b7cc7cde96993cfa\"},\"headline\":\"o1 is smarter but more deceptive with a \u201cmedium\u201d danger level\",\"datePublished\":\"2024-09-16T08:57:47+00:00\",\"dateModified\":\"2024-09-17T05:15:36+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/\"},\"wordCount\":860,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/09\\\/01-more-intelligent-more-risks.webp\",\"keywords\":[\"AI risks\",\"OpenAI\"],\"articleSection\":[\"Industry\"],\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/\",\"name\":\"o1 is smarter but more deceptive with a \u201cmedium\u201d danger level | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/09\\\/01-more-intelligent-more-risks.webp\",\"datePublished\":\"2024-09-16T08:57:47+00:00\",\"dateModified\":\"2024-09-17T05:15:36+00:00\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/09\\\/01-more-intelligent-more-risks.webp\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/09\\\/01-more-intelligent-more-risks.webp\",\"width\":1792,\"height\":1024},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/09\\\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"o1 is smarter but more deceptive with a \u201cmedium\u201d danger level\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/7ce525c6d0c79838b7cc7cde96993cfa\",\"name\":\"Eugene van der Watt\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/Eugine_Profile_Picture-96x96.png\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/Eugine_Profile_Picture-96x96.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/Eugine_Profile_Picture-96x96.png\",\"caption\":\"Eugene van der Watt\"},\"description\":\"Eugene comes from an electronic engineering background and loves all things tech. When he takes a break from consuming AI news you'll find him at the snooker table.\",\"sameAs\":[\"www.linkedin.com\\\/in\\\/eugene-van-der-watt-16828119\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/it\\\/author\\\/eugene\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"o1 \u00e8 pi\u00f9 intelligente ma pi\u00f9 ingannevole con un livello di pericolo \"medio\" | DailyAI","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/it\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/","og_locale":"it_IT","og_type":"article","og_title":"o1 is smarter but more deceptive with a \u201cmedium\u201d danger level | DailyAI","og_description":"OpenAI\u2019s new \u201co1\u201d LLMs, nicknamed Strawberry, display significant improvements over GPT-4o, but the company says this comes with increased risks. OpenAI says it is committed to the safe development of its AI models. To that end, it developed a Preparedness Framework, a set of \u201cprocesses to track, evaluate, and protect against catastrophic risks from powerful models.\u201d OpenAI&#8217;s self-imposed limits regulate which models get released or undergo further development. The Preparedness Framework results in a scorecard where CBRN (chemical, biological, radiological, nuclear), model autonomy, cybersecurity, and persuasion risks are rated as low, medium, high, or critical. Where unacceptable risks are identified,","og_url":"https:\/\/dailyai.com\/it\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/","og_site_name":"DailyAI","article_published_time":"2024-09-16T08:57:47+00:00","article_modified_time":"2024-09-17T05:15:36+00:00","og_image":[{"width":1792,"height":1024,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-more-intelligent-more-risks.webp","type":"image\/webp"}],"author":"Eugene van der Watt","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Scritto da":"Eugene van der Watt","Tempo di lettura stimato":"5 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/"},"author":{"name":"Eugene van der Watt","@id":"https:\/\/dailyai.com\/#\/schema\/person\/7ce525c6d0c79838b7cc7cde96993cfa"},"headline":"o1 is smarter but more deceptive with a \u201cmedium\u201d danger level","datePublished":"2024-09-16T08:57:47+00:00","dateModified":"2024-09-17T05:15:36+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/"},"wordCount":860,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-more-intelligent-more-risks.webp","keywords":["AI risks","OpenAI"],"articleSection":["Industry"],"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/","url":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/","name":"o1 \u00e8 pi\u00f9 intelligente ma pi\u00f9 ingannevole con un livello di pericolo \"medio\" | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-more-intelligent-more-risks.webp","datePublished":"2024-09-16T08:57:47+00:00","dateModified":"2024-09-17T05:15:36+00:00","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-more-intelligent-more-risks.webp","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/09\/01-more-intelligent-more-risks.webp","width":1792,"height":1024},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/09\/01-is-smarter-but-more-deceptive-with-a-medium-danger-level\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"o1 is smarter but more deceptive with a \u201cmedium\u201d danger level"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"La vostra dose quotidiana di notizie sull'intelligenza artificiale","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/7ce525c6d0c79838b7cc7cde96993cfa","name":"Eugene van der Watt","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/Eugine_Profile_Picture-96x96.png","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/Eugine_Profile_Picture-96x96.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/Eugine_Profile_Picture-96x96.png","caption":"Eugene van der Watt"},"description":"Eugene proviene da un background di ingegneria elettronica e ama tutto ci\u00f2 che \u00e8 tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si pu\u00f2 trovare al tavolo da biliardo.","sameAs":["www.linkedin.com\/in\/eugene-van-der-watt-16828119"],"url":"https:\/\/dailyai.com\/it\/author\/eugene\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/14221","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/comments?post=14221"}],"version-history":[{"count":6,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/14221\/revisions"}],"predecessor-version":[{"id":14248,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/14221\/revisions\/14248"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media\/14226"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media?parent=14221"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/categories?post=14221"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/tags?post=14221"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}