ChatGPT حالا تصاویر را بهتر از یک منتقد هنری و کارآگاه تحلیل میکند

مدل o3 در زمینههایی مانند کدنویسی، ریاضیات، علوم و ادراک بصری بهبودهای چشمگیری نسبت به مدلهای قبلی دارد. مدل o4-mini نیز با تمرکز بر استدلال مقرونبهصرفه، عملکرد مشابهی را با سرعت بالاتر ارائه میدهد. این پیشرفتها پس از عرضه مدل GPT-4.1 صورت گرفته که پردازش سریعتر و درک عمیقتری از زمینه را به ارمغان آورد.
چتجیپیتی حالا با تصاویر فکر میکند
اوپنایآی اعلام کرده که این دو مدل میتوانند تصاویر را در زنجیره فکری خود ادغام کنند، قابلیتی که به آنها امکان میدهد با تصاویر فکر کنند. این مدلها فراتر از تحلیل ساده، قادر به بررسی دقیق تصاویر از طریق اقداماتی مانند برش، بزرگنمایی، چرخش یا غنیسازی جزئیات هستند تا سرنخهای بصری را استخراج کنند. این توانایی، دقت چتجیپیتی را در ارائه پاسخهای مرتبط افزایش میدهد.
این مدلها میتوانند استدلال بصری و متنی را با ابزارهای دیگر چتجیپیتی مانند جستوجوی وب، تحلیل داده و تولید کد ترکیب کنند، که زمینهساز توسعه عاملهای هوش مصنوعی پیشرفتهتر با تحلیل چندوجهی است. به گفته اوپنایآی، کاربران میتوانند تصاویری مانند نمودارها، یادداشتهای دستنویس یا اشیای واقعی را بارگذاری کنند و بدون نیاز به توضیحات متنی، پاسخهای دقیقتری دریافت کنند.
این پیشرفت، اوپنایآی را به گوگل جمنای نزدیکتر میکند که توانایی تفسیر دنیای واقعی از طریق ویدئوهای زنده را ارائه میدهد. بااینحال، دسترسی به این مدلها فعلاً محدود به کاربران پولی است. مدلهای o3، o4-mini و o4-mini-high برای اعضای پلاس، پرو و تیم در دسترس هستند و کاربران سازمانی و آموزشی طی یک هفته آینده به آنها دسترسی خواهند یافت. کاربران رایگان نیز با انتخاب گزینه فکر کردن در نوار ورودی، دسترسی محدودی به o4-mini خواهند داشت.
digitaltrends نوشت: اوپنایآی این محدودیت را برای مدیریت تقاضای محاسباتی اعمال کرده تا از مشکلات قبلی مانند فشار بیشازحد بر پردازندههای گرافیکی جلوگیری کند.
انتهای پیام/