OpenAIは、言語モデルの最新バージョン
GPT-4.5を発表した。
新モデルは、パターン認識の強化、
創造性の向上、感情知能の改善を
約束している。
GPT-4.5の主な改良点のひとつは、
言語モデルが不正確な情報を生成する
一般的な問題である「幻覚」率の低減だ。
GPT-4.5の幻覚率は37.1%で、GPT-4の
61.8%やGPT-3の44%より大幅に低く、
統計上は信頼性の顕著な向上の結果を
示している。
また、ファイルや画像のアップロードにも
対応しており、さまざまなライティングや
コーディングのプロジェクトにも適している。
ただし、音声やビデオのサポートといった
機能はまだ利用できない。
GPT-4.5の提供は順次開始され、
ChatGPT PlusとTeamユーザーは来週、
EnterpriseとEducationユーザーは
その後となるようだ。
OpenAIのCEOであるサム・アルトマン氏は、
このような高度なモデルの拡張には
大規模なインフラが必要であることを
認識した上で、多くの需要に応えるために
GPU容量の拡張に取り組んでいることを
明かした。
このリリースは、AIの能力を大きく
前進させるものであり、幅広い用途で、
より信頼性が高く創造的なツールを
ユーザーに提供するもののようだ。
0 件のコメント:
コメントを投稿