SUMMER STYLE
-
Eames lounge chair 399.00 Br
-
Classic wooden chair 299.00 Br
-
Wooden single drawer 26.90 Br – 299.00 Br
-
Smart watches wood edition 599.00 Br
For orders above €100
For All Your Questions
Products variations colors and images without any additional plugins.
Гендиректор OpenAI Сэм Альтман (Sam Altman) на недавнем мероприятии, посвящённом искусственному интеллекту, рассказал, каким видит будущее ChatGPT. На вопрос о том, как можно сделать платформу ещё более персонализированной, Альтман ответил, что хочет, чтобы модель документировала и помнила о жизни человека всё. В идеале это будет «очень маленькая рассуждающая модель с контекстом на триллион токенов, в который вносишь всю свою жизнь».
«Эта модель может рассуждать во всём вашем контексте и делать это эффективно. И каждый разговор, который вы когда-либо вели в своей жизни, каждая книга, которую когда-либо читали, всё, что когда-либо смотрели, находится там, плюс связано со всеми вашими данными из других источников. И ваша жизнь просто продолжает добавляться к этому контексту», — рассказал глава OpenAI.
У Альтмана есть веские основания считать такой сценарий развития ChatGPT естественным — молодёжь в вузах пользуется платформой как операционной системой, пояснил он. Они загружают файлы, подключают источники данных и вводят для их обработки «сложные запросы»; более того, они уже «на деле не принимают никаких жизненных решений, не спросив ChatGPT». «Сильно упростим: люди старшего возраста используют ChatGPT как замену Google. Люди в возрасте от 20 до 30 лет используют его как наставника в жизни», — заявил Сэм Альтман.
С одной стороны, система, которая решает некоторые жизненные задачи вместо человека, могла бы облегчить ему жизнь. С другой, нельзя сказать наперёд, насколько можно доверять свою жизнь крупной технологической компании: например, Google, которая долгое время позиционировалась как «корпорация добра», уже проиграла не один судебный процесс, в котором её признали виновной в антиконкурентных действиях.
Чат-боты с ИИ могут быть подвержены манипуляциям со стороны своих разработчиков и высказывать предвзятую точку зрения. Иногда ИИ выходит из-под контроля — недавно тот же ChatGPT начал проявлять в отношении пользователей чрезмерно подхалимское поведение, и его очередное обновление пришлось откатить. Наконец, до сих пор не решена проблема с галлюцинациями ИИ, то есть инцидентами, когда чат-бот с уверенностью даёт явно не соответствующие действительности ответы; более того, со временем эта особенность ИИ даже усугубляется.