Инструкции по работе с d00m4ace ИИ Телеграм ботом

#166  вторник, 6 мая 2025 г.  среда, 7 мая 2025 г.  54 минут(ы)  5287 слов

🤖 ИИ Телеграм Бот с GPT-*|o3, и Flux для текста и картинок. Анализ, генерация, стилизация.

ИИ Телеграм Бот поддерживает различные команды для работы с текстом и изображениями.

Пример работы d00m4ace ИИ Телеграм Бота - ChatGPT_d00m4ace_bot

Вы можете загрузить текстовый файл, или изображение и дальше работать с данными файлами.

При этом в работе всегда используется только последний загруженный текстовый файл или последнее изображение.

Чтобы ознакомиться со всеми опциями, доступными командами управления в данном ИИ Телеграм Бота, начните работу, введя команду /help.

В боте доступны полезные команды для задания температуры LLM-запросов. Вы также можете явно указать размеры изображения. (В зависимости от выбранной модели изображения, вы можете получить сообщение об ошибке, в котором будут показаны все доступные размеры изображений для выбранной модели изображения, в этом случае вы можете лично изменить их на нужный вам размер или воспользоваться командой /reset, которая установит размер для всех изображений "1024x1024", но и переключит модель изображении на gpt_image_1.

  • /temperature - Установить температуру для LLM запросов (от 0.0 до 2.0)
  • /img_width - Установить ширину генерируемых изображений
  • /img_height - Установить высоту генерируемых изображений
  • /options - Показать текущие настройки
  • /reset - Сбросить настройки на значения по умолчанию и очистить историю диалога

Ниже приведены конкретные примеры использования команд для задания температуры и размеров изображений, а также обоснования выбора значений для твоих задач.


🌡️ Настройка температуры (команда /temperature)

Температура влияет на степень случайности ответов модели LLM:

  • Низкая температура (≈ 0.2–0.5) — более детерминированные, точные, логичные ответы.
  • Средняя температура (≈ 0.7–1.0) — баланс между точностью и творчеством.
  • Высокая температура (≈ 1.2–2.0) — максимально креативные, но менее предсказуемые результаты.

Примеры установки температуры:

  • Для перевода игрового чата, где важна точность и повторяемость результата:
/temperature 0.3
  • Для генерации креативных текстов и сценариев, например описаний игровых персонажей:
/temperature 0.9
  • Для создания нестандартных идей, сюжетов или вдохновения:
/temperature 1.5

📌 Обоснование:

  • Чем ниже температура, тем более стабилен и логичен результат (например, переводы, факты, анализ данных).
  • Средняя температура идеальна для большинства творческих, но контролируемых задач.
  • Высокие значения подходят для генерации необычных идей или исследования различных вариаций.

📐 Настройка размеров изображений (/img_width, /img_height)

Ты можешь явно задать ширину и высоту генерируемых изображений под свои задачи. Вот например для модели генерации изображений GPT-Image-1:

📌 GPT-Image-1 (OpenAI):

Эта модель поддерживает три размера:

  • Квадрат: 1024×1024
  • Портрет: 1024×1536
  • Ландшафт: 1536×1024

Примеры:

  • Квадрат (социальные сети, аватары, иконки):
/img_width 1024
/img_height 1024
  • Портрет (иллюстрации, постеры, вертикальный контент):
/img_width 1024
/img_height 1536
  • Ландшафт (баннеры, презентации, горизонтальный контент):
/img_width 1536
/img_height 1024

🤖 Доступные ИИ LLM-модели

На данный момент доступны следующие модели ИИ больших языковых моделей (LLM), которые можно использовать в работе с ботом. По мере выхода новых моделей они будут автоматически добавляться в список доступных.

📌 Команды для выбора модели:

  • /use_llm_gpt_4_1 — переключиться на GPT-4.1
  • /use_llm_gpt_4_1_mini — использовать GPT-4.1 Mini (облегчённая версия)
  • /use_llm_gpt_4_1_nano — использовать GPT-4.1 Nano (максимально компактная)
  • /use_llm_gpt_4o — переключиться на GPT-4o (модель с мультимодальными возможностями)
  • /use_llm_gpt_4o_mini — использовать GPT-4o Mini
  • /use_llm_o4_mini — использовать модель o4_mini
  • /use_llm_o3 — переключиться на модель o3

💡 Совет: используйте облегчённые версии (mini, nano), если вам важна скорость и экономия, и полные версии (gpt_4_1, gpt_4o) — когда приоритет на точность, контекст и сложные задачи.

🏆 Актуальный порядок моделей по данным LMSYS Chatbot Arena (6 мая 2025)

Команда Модель (версия в Arena) Elo‑рейтинг Оценка качества ★ Что это значит
/use_llm_o3 o3‑2025‑04‑16 1411 ⭐⭐⭐⭐⭐ Самая сильная из доступных — держится во 2‑й строке глобального рейтинга, уступая только свежему Gemini 2.5 Pro Preview.
/use_llm_gpt_4o ChatGPT‑4o (2025‑03‑26) 1408 ⭐⭐⭐⭐⭐ Топ‑модель OpenAI с мультимодальностью; 3‑е место.
/use_llm_gpt_4_1 GPT‑4.1‑2025‑04‑14 1367 ⭐⭐⭐⭐½ Очень высокая точность, но чуть ниже o3/4o.
/use_llm_o4_mini o4‑mini‑2025‑04‑16 1351 ⭐⭐⭐⭐ Быстрая «лайт»‑версия, оптимальна, когда важны цена и latency.
/use_llm_gpt_4_1_mini GPT‑4.1‑mini‑2025‑04‑14 1324 ⭐⭐⭐½ Баланс цена/скорость; подходит для повседневных задач.
/use_llm_gpt_4_1_nano GPT‑4.1‑nano‑2025‑04‑14 1270 ⭐⭐⭐ Максимальная экономия токенов при умеренном качестве.
/use_llm_gpt_4o_mini GPT‑4o‑mini‑2024‑07‑18 1272 ⭐⭐⭐ Упрощённая мультимодальная версия; сопоставима с 4.1 nano по качеству, но умеет картинки/аудио.
  • Необходимо учесть, что рейтинг моделей изменяется, и это будет указано в источниках.

Как читать таблицу Elo‑рейтинг — «силовая» оценка Chatbot Arena. 1400+ = топ‑уровень, 1350–1399 = очень высокая, 1300–1349 = средне‑высокая, 1250–1299 = базовая. Звёздочки дают то же самое «в одно касание».


📌 Замечания

  1. Рейтинги подвижны — Arena пересчитывает Elo ежедневно; значения могут меняться.
  2. Некоторые версии (mini, nano) присутствуют в Arena, но находятся заметно ниже флагманов.
  3. Новые модели автоматически добавляются; при появлении «GPT‑5», «o5» или новых они появятся в списке и будут доступны по отдельной команде.

См. Chatbot Arena | OpenLM.ai

Работа с текстовыми файлами

Текстовый файл - это именно текстовый файл, например, .txt, .md, .csv или исходный код .cpp, .c, .js и так далее. В общем, это не .pdf, не .doc и не другие сложные текстовые файлы. Это файл с кодом UTF-8, который можно прочитать, просто открыв его в каком-нибудь простом текстовом редакторе.

Размер текстового файла обычно ограничен 200 килобайтами. И этого ограничения, в принципе, достаточно для работы большинства нейросетей, так как их контекстное окно плюс история чата не вместят столько текста, если же вы хотите открыть файл размером 1 мегабайт и более, то для этого нужны другие подходы, а они в данном боте не реализованы.

Обычно в текстовом файле вы пишете свой сложный запрос в каком-нибудь редакторе, например, состоящий из какой-то вашей мини-базы или, например, исходников. Если вы программист, то можете, например, объединить несколько файлов в этот текстовый файл, разделив их xml-разметкой, а затем обращаться к этому текстовому файлу с разными запросами. Это гораздо удобнее, чем каждый раз копировать и вставлять кучу текста в строку чата Telegram. Кроме того, вы можете сохранять текстовые файлы на компьютере или телефоне и использовать их позже для быстрого продолжения или начала работы. Это также может быть ваша личная база знаний.

📄 Пример простого текстового файла с XML-тегами (совместимый с многими ИИ(LLM)):

<python_code>
def greet(name):
    return f"Hello, {name}!"

print(greet("World"))
</python_code>

<config>
input_path = "data/input.csv"
output_path = "data/output.csv"
</config>

<description>
Это простой Python-скрипт, который выводит приветствие.
Файл конфигурации задаёт пути к входным и выходным данным.
</description>

💬 Комментарии к тегам:

  • <python_code> – обозначает блок кода. Можно использовать для указания, где начинается логика программы.
  • <config> – можно использовать для настроек, параметров и переменных.
  • <description> – хорош для описания задачи, пояснений, инструкций, README и т.д.

✅ Преимущества такого подхода:

  • Минимум тегов – просто и читаемо.
  • Совместимо с другими LLM – модель легко различает секции по тегам.
  • Можно легко ссылаться в вопросах: «Проверь <python_code> на ошибки», «Сгенерируй документацию по <config>», и т.д.
  • Не нужно CDATA – теги не конфликтуют со специальными символами, если текст не XML-парсится строго.

Чтобы получить доступ к текстовому файлу и начать новый диалог, вам нужно использовать команду, написав в самом начале /text, пробел, а затем ваш запрос, который вы хотите задать по загруженному текстовому файлу.

Например:

/text Проверь <python_code> на ошибки, Сгенерируй документацию по <config>.

или

/text Проведи проверку кода <python_code> на ошибки, генерируй документацию.

или

/text Проведи Рефакторинг кода <python_code>, и обоснуй свои идеи по рефакторингу.

Вот простой и реальный пример, когда в один текстовый файл вставляется несколько файлов кода с использованием простых XML-тегов, как рекомендовано в Anthropic.

📄 Содержимое текстового файла (project_bundle.txt):

<file name="main.py">
def main():
    from utils import say_hello
    say_hello("Alice")

if __name__ == "__main__":
    main()
</file>

<file name="utils.py">
def say_hello(name):
    print(f"Hello, {name}!")
</file>

<file name="README.txt">
Этот проект состоит из двух файлов:
- `main.py`  точка входа, вызывает функцию из utils.py.
- `utils.py`  содержит функцию `say_hello`.

Запуск:
python main.py
</file>

💡 Пояснение:

<file name="...">...</file> — это простой способ «упаковать» несколько файлов кода в один текстовый файл.

Содержимое каждого блока представляет код или описание.

Такой файл можно загрузить в ИИ Телеграм Бот, и задать запрос, например:

/text Оптимизируй utils.py

/text Объедини main.py и utils.py в один файл

/text Добавь логгирование в say_hello

Будьте последовательны:

Используйте одни и те же названия тегов во всех ваших текстовых файлах и ссылайтесь на эти названия тегов при обсуждении содержимого (например, Используя контракт в тегах <contract>...).

Вкладывайте теги:

Вы можете вкладывать теги <outer><inner></inner></outer> для иерархического содержимого и тп.

Совет для продвинутых пользователей:

Комбинируйте XML-теги с другими техниками, такими как многократное промптирование <examples> или цепочка рассуждений <thinking>, <answer>. Это создает супер-структурированные, высокопроизводительные промпты.

🧠 Пример текстового файла для ИИ с вложенностью и повторяемыми тегами:

<project>
    <metadata>
        <title>Greeting App</title>
        <language>Python</language>
        <author>Andrew Petrov</author>
    </metadata>

    <code_files>
        <file name="main.py">
            <code>
def main():
    from utils import say_hello
    say_hello("Alice")

if __name__ == "__main__":
    main()
            </code>
        </file>

        <file name="utils.py">
            <code>
def say_hello(name):
    print(f"Hello, {name}!")
            </code>
        </file>
    </code_files>

    <documentation>
        <readme>
            <text>
Это минимальный Python-проект.
Он состоит из main.py и utils.py, где реализована функция приветствия.
            </text>
        </readme>
    </documentation>

    <examples>
        <example>
            <input>Alice</input>
            <expected_output>Hello, Alice!</expected_output>
        </example>
        <example>
            <input>Bob</input>
            <expected_output>Hello, Bob!</expected_output>
        </example>
    </examples>

    <thinking>
        Функция say_hello может быть улучшена: добавить логгирование, обработку пустых строк, поддержку многозначных приветствий.
    </thinking>

    <answer>
        Перепиши utils.py с добавлением проверки и логгирования.
    </answer>
</project>

📝 Комментарии к структуре:

✅ Последовательные теги: Везде используется <file>, <code>, <example>, <input>, <expected_output> и т.д. Это облегчает чтение как человеком, так и ИИ.

✅ Вложенные структуры: <project> содержит всё. <file> вложен в <code_files>, а <code> — внутрь <file>.

✅ Поддержка сложных промптов

  • <thinking> — размышление или анализ.
  • <answer> — действие или результат.
  • <examples> — отличная техника, которая усиливает способность ИИ к генерализации и точности.

📌 Применение. Такой файл можно загрузить в ИИ-бот, а затем задать, например:

/text Используя <thinking>, перепиши <file name="utils.py"> из секции <code_files>.

Или:

/text Добавь ещё один <example> для функции say_hello.

Chain-of-Thought Prompting (CoT) — цепочка рассуждений

Пример текстового файла с XML-разметкой, реализующий технику Chain-of-Thought Prompting (CoT) — цепочка рассуждений — в формате, совместимом с многими LLM и удобно загружаемом через ИИ Telegram бота.

Этот подход помогает модели рассуждать шаг за шагом, прежде чем выдавать ответ.

📄 Пример текстового файла с Chain-of-Thought разметкой:

<task>
    <problem>
        У Пети 3 яблока. Он купил ещё 5 яблок, а потом съел 2. Сколько яблок у него осталось?
    </problem>

    <thinking>
        Сначала у Пети было 3 яблока.  
        Потом он купил ещё 5  всего стало 3 + 5 = 8 яблок.  
        Затем он съел 2 яблока  значит, осталось 8 - 2 = 6 яблок.
    </thinking>

    <answer>
        У Пети осталось 6 яблок.
    </answer>
</task>

🔍 Объяснение структуры:

  • <problem> — формулировка задачи.
  • <thinking> — цепочка рассуждений. Это ключ к CoT: разбиваем процесс на понятные шаги.
  • <answer> — финальный вывод, после размышлений.

🔁 Расширенный вариант с несколькими задачами:

<tasks>
    <task>
        <problem>На столе было 10 книг. 4 убрали. Сколько осталось?</problem>
        <thinking>10 - 4 = 6. Убираем 4 книги  остаётся 6.</thinking>
        <answer>6</answer>
    </task>

    <task>
        <problem>У Анны было 12 конфет. Она дала брату 5, а подруге 2. Сколько у неё осталось?</problem>
        <thinking>
            Всего у неё было 12.  
            Дала брату 5: осталось 12 - 5 = 7.  
            Дала подруге 2: осталось 7 - 2 = 5.
        </thinking>
        <answer>5</answer>
    </task>
</tasks>

✅ Зачем использовать Chain-of-Thought:

Позволяет модели объяснять ход решения. Особенно полезно при многошаговых вычислениях, логике, программировании. Можно комбинировать с другими техниками, например, в теге <examples>:

  • сначала — несколько задач с мыслями (few-shot prompting),
  • потом — новая задача без ответа.

Вот еще два примера Chain-of-Thought (CoT) в XML-структуре — один для программирования, другой для логической задачи. Они оформлены так, чтобы легко использоваться в текстовом файле для ИИ Телеграм-бота.

🧠 Пример 1: CoT для программирования:

<task>
    <problem>
        Напишите функцию на Python, которая принимает список чисел и возвращает сумму только чётных чисел.
    </problem>

    <thinking>
        1. Нам нужно пройти по всем числам в списке.  
        2. Для каждого элемента проверить: делится ли он на 2 без остатка (`x % 2 == 0`).  
        3. Если да  добавить его к общей сумме.  
        4. В конце вернуть сумму.
    </thinking>

    <answer>
        <code>
def sum_even(numbers):
    return sum(x for x in numbers if x % 2 == 0)
        </code>
    </answer>
</task>

🧠 Пример 2: CoT для логической загадки:

<task>
    <problem>
        В комнате три лампочки и три выключателя снаружи. Каждый выключатель управляет одной лампочкой.  
        Вы можете зайти в комнату только один раз. Как определить, какой выключатель к какой лампочке относится?
    </problem>

    <thinking>
        1. Включаем первый выключатель и ждём 2 минуты.  
        2. Выключаем его и включаем второй выключатель.  
        3. Заходим в комнату:  
           - Лампочка, которая **горит**, управляется вторым выключателем.  
           - Лампочка, которая **тёплая**, но не горит  от первого.  
           - Лампочка, которая **холодная и не горит**  от третьего.
    </thinking>

    <answer>
        Используя тепло лампочек и их состояние (вкл/выкл), можно определить соответствие всем трём выключателям.
    </answer>
</task>

✅ Преимущества такого подхода:

  • Делает мыслительный процесс прозрачным для модели.
  • Помогает ИИ выводить логические шаги, а не просто угадывать ответ.
  • Можно применять к алгоритмам, задачам на массивы, математику, загадки и пр.

🧠 Использование JSON в текстовом файле:

Используй XML-теги — в стиле, который легко обрабатывать в ИИ Telegram-боте с поддержкой текстовых файлов вместе с JSON разметкой.

📄 Пример CoT-задания по JSON в текстовом файле:

<task>
    <title>MMORPG Chat Term Extraction</title>

    <instruction>
        You are observing conversations in an MMORPG chat. Your task is to identify and collect terms frequently used by players within their chat messages.

        For each term you identify, you need to create a JSON dictionary entry with:
        - A brief description.
        - A list of synonyms.
        - The English translation if applicable.

        Output only the JSON dictionary in the format:
        {
          "term": {
            "description": "...",
            "synonyms": ["..."],
            "English": "..."
          }
        }
    </instruction>

    <examples>
        <chat_sample>
            "Looking for dps for dg run, healer already in party"
        </chat_sample>

        <thinking>
            - "dg" likely means dungeon  
            - "dps" is damage per second role  
            - "healer" is a support role  
        </thinking>

        <answer>
            <json>
{
  "dg": {
    "description": "Abbreviation for 'dungeon', areas where players can fight through enemies and bosses to obtain rewards.",
    "synonyms": ["dungeon", "instances"],
    "English": "dungeon"
  },
  "dps": {
    "description": "Abbreviation for 'damage per second,' referring to a character's ability to deal damage quickly in combat.",
    "synonyms": ["damage dealer"],
    "English": "damage per second"
  },
  "healer": {
    "description": "A role or character in the game tasked with restoring health points to other players.",
    "synonyms": ["medic", "support"],
    "English": "healer"
  }
}
            </json>
        </answer>
    </examples>
</task>

✅ Почему это полезно:

  • Совмещает JSON и Chain-of-Thought — сначала размышления в <thinking>, затем вывод в <json>.

  • Гибко расширяется — можно добавлять <chat_sample>, <thinking>, <answer> как кейсы для обучения.

  • Можно использовать в few-shot формате: задать 1–2 примера, а затем добавить пустой <chat_sample> и попросить сгенерировать ответ.

Чтобы перевести чат на один язык, например русский, можно воспользоваться этой подсказкой + добавить полученный словарь игровых терминов:

You are a helpful assistant designed to output JSON.

Translate each line of MMORPG chat to Russian. Output the results as a JSON object.

Example input line:
"Tank on tlevra, go kill yourself against the wall."

Output JSON format:
{
  "original_text": "Tank on tlevra, go kill yourself against the wall.",
  "translations": {
    "ru": "Танк на тле, убейся об стену."
  }
}

Utilize standard MMORPG chat abbreviations and synonyms. For instance, "тлевранза" is translated to "tlervanza" in English, with players using "тля" in Russian and "tlevra" in other languages.

Translate: "TLERVANZA PARTY FORMING. NEED A TANK!!!"
to Russian as: "ФОРМИРУЕТСЯ ПАТИ ТЛЮ. НУЖЕН ТАНК!!!"

Use only UTF-8 for text output.
Ensure all translations are in a single JSON file. Only output a JSON response.

🔧 Оптимизации для пайплайна MMORPG-перевода чата игры

1. System prompt — полностью на английском

  • Проблема: русскоязычные инструкции могут снижать эффективность и скорость, особенно на небольших моделях типа gpt-3.5, gpt-4o-mini и gpt-4.1-nano.
  • Решение:

  • Переписать все части system prompt (включая описание задачи, формат вывода, объяснения) на английском.

  • Пример:

    You are an assistant translating MMORPG chat messages into Russian. Use the following mini-dictionary to interpret game-specific terms...


2. Удаление description, переход на dic_short.json

  • Проблема: description не используется в runtime-переводе, но сильно нагружает контекст.
  • Решение:

  • Использовать «укороченный словарь» вида:

{
  "dps": {
    "synonyms": ["damage dealer"],
    "English": "damage per second"
  }
}
  • Это экономит токены, особенно на многословных описаниях, и даёт больше места в промпте для реальных сообщений.

3. Перевод пачки строк + компактный словарь

  • Проблема: посимвольные или построчные запросы → дублирование + задержки.
  • Решение:

  • Группировать чатовые строки в массив (batch size = 5–10), переводить сразу.

  • Пример структуры запроса:
{
  "terms": { ... },   // mini-dictionary
  "lines": [
    "dg 2/5 need dps",
    "arena full +1",
    "lf healer fast",
    "go tlevra now"
  ]
}
  • Дополнительно: убрать ненужные языки из перевода, если 80–90% чата на англо-русском.

4. Кэшинг и mini-smart парсинг

  • Проблема: повторяющиеся шаблоны и сообщения → избыточные вызовы модели.
  • Решение:

  • Ввести локальный кэш (на ключ-строку или на нормализованный шаблон).

  • Примеры шаблонов:

    • dg +N, arena N/3, need tank, lf dps
    • Можно использовать регулярки или simple-парсер:
normalize("dg +1")  "dg +N"
normalize("arena 2/3 +1")  "arena N/3 +N"
  • Кэш можно хранить как:
{
  "dg +N": "нужен 1 игрок в данж",
  "arena N/3": "арена почти собрана"
}

✅ Это важная оптимизация для экономии токенов и ускорения обработки.


5. Использовать индивидуальный мини-словарь для каждой пачки строк

  • Проблема: при каждой генерации используется весь словарь терминов, даже если большинство не встречается в текущем чате → лишние токены, больше цена, медленнее ответ.

  • Решение:

  • Предварительно проходить по словарю перед отправкой запроса и оставлять только термины, которые реально встречаются в этой порции чата.

  • Это создаёт персонализированный mini-dict на лету — для каждой порции строк.

  • Пример:

Исходный словарь:

{
  "dg": { "synonyms": ["dungeon"], "Russian": "подземелье" },
  "tlevra": { "synonyms": ["tlervanza", "тля"], "Russian": "Тлевранза" },
  "buff": { "synonyms": ["boost"], "Russian": "баф" },
  "tank": { "synonyms": ["defender"], "Russian": "танк" }
}

Чат-пачка:

["need tank dg 2/5", "go tlevra now", "dungeon full +1"]

→ автоматическое выделение термов:

  • dg, tank, tlevra (пересечение найдено)
  • buffисключается как нерелевантный

Сгенерированный mini-dict:

{
  "dg": { "synonyms": ["dungeon"], "Russian": "подземелье" },
  "tlevra": { "synonyms": ["tlervanza", "тля"], "Russian": "Тлевранза" },
  "tank": { "synonyms": ["defender"], "Russian": "танк" }
}
  • Преимущества:

  • 💰 Меньше токенов → меньше цена

  • ⚡ Меньше объём контекста → быстрее ответ
  • 📦 Более чистый и контекстно релевантный словарь без мусора

  • Реализация:

  • На серверной части: скрипт, который парсит текущую партию строк и строит мини-словарь на лету (возможно, через re.findall() и set() пересечение).

  • Можно кэшировать такие мини-словари по шаблону: hash(строки) → mini_dict.

📌 Конечная цель:

Сделать систему:

  • с чистым английским prompt'ом,
  • минимальным словарём,
  • батчевыми строками,
  • и смарт-кэшированием шаблонов и переводов.

📌 Что можно сделать дальше

Направление Действие
System prompt Перевести, сократить, стандартизировать под batch-перевод
Словарь Генерировать dic_short.json автообрезкой через скрипт
Инфраструктура Реализовать кэширование + нормализацию шаблонов
Архитектура запроса Объединить: <mini_dict> + <lines> в единый JSON промпт
Тестирование Сделать A/B сравнение: полный словарь vs короткий словарь + кэш

Еще можно:

  • Протестировать gpt-3.5, gpt-4o-mini и gpt-4.1-nano на таких батчах.
  • Написать нормализатор шаблонов.
  • Сделать конвертер full_dict.jsondic_short.json.

Больше про prompt engineering можно узнать:

Chain-of-Thought Prompting

🧠 Awesome Claude Prompts

История диалога текста чата с ИИ

Работа с историей диалога:

  • Бот сохраняет историю последних 10 сообщений в диалоге
  • История используется для поддержания контекста разговора
  • Команды /scan, /scantxt, /scanmd и /text начинают новый диалог с пустой историей
  • Команда /clear очищает текущую историю
  • Команда /del очищает все загруженные текстовые файлы и изображения

Так, например, вы начали новый запрос к текстовому файлу через /text и после написания первой подсказки, вызова, вы просто пишете дальнейшие обычные предложения, и это будет диалог с текстовым файлом дальше и с новой историей.

Кроме того, вы можете переключаться между разными нейросетями в процессе работы с чатом и таким образом, например, начав диалог-текст с одной модели, затем переключиться на более сложную или простую, например, сменив ее, и все будет далее обрабатываться и получать ответы в соответствии с выбранной последней нейросетью.

Работа с файлами изображений

📷 Работа с изображениями: команды и примеры использования

Бот поддерживает обработку последнего загруженного изображения через специальные команды. Ниже — краткое описание возможностей и примеры:


🔍 /scan [запрос]Анализ содержимого изображения

Определяет, что изображено на последнем изображении: объекты, сцена, действия.

  • Без запроса:
/scan

➜ Бот опишет, что находится на изображении (например: "два человека сидят за столом, между ними ноутбук").

  • С уточнением:
/scan кто изображён на фото?
/scan что делает человек в центре?

📝 /scantxt [запрос]Распознавание текста на изображении (OCR)

Извлекает весь читаемый текст с картинки.

  • Без уточнений:
/scantxt

➜ Извлечёт весь текст (например, текст с экрана, документа, этикетки).

  • С запросом:
/scantxt что написано на вывеске?
/scantxt распознай формулу

🧾 /scanmd [запрос]Преобразование изображения в структурированный Markdown

Полезно для табличек, диаграмм, форм, инфографики.

  • Без запроса:
/scanmd

➜ Преобразует таблицу или документ с изображения в Markdown-таблицу или текстовую структуру.

  • С уточнением:
/scanmd преобразуй диаграмму в список
/scanmd преврати таблицу в Markdown-таблицу

💡 Общие замечания:

  • Все команды работают только с последним загруженным изображением.
  • [запрос] — необязателен, но помогает уточнить контекст (вопрос, команда, пояснение).
  • Поддерживаются фотографии, скриншоты, документы, инфографика и пр.

Ниже приведены примеры использования команд /scan, /scantxt, /scanmd с различными типами изображений, а также шаблоны вывода, которые вы можете ожидать от бота.


📸 1. Фото сцены или объекта — команда /scan

Пример изображения:

Фотография рабочего стола с ноутбуком, кружкой и блокнотом.

🧾 Команда:

/scan

🖼️ Ожидаемый вывод:

На изображении — деревянный стол. В центре — открытый ноутбук, справа — белая кружка, слева — блокнот с ручкой. Освещение естественное, дневное.

💬 С уточнением:

/scan что написано на экране?

📄 2. Фото документа или вывески — команда /scantxt

Пример изображения:

Сфотографированная табличка на двери:

«Офис закрыт с 10 по 14 мая. По вопросам пишите на support@example.com»

🧾 Команда:

/scantxt

🖼️ Ожидаемый вывод:

Офис закрыт с 10 по 14 мая. По вопросам пишите на support@example.com

💬 С уточнением:

/scantxt какой имейл указан?

📊 3. Таблица на изображении — команда /scanmd

Пример изображения:

Фотография экрана с таблицей:

Имя Роль Онлайн
Alex Танк Да
Bella Лекарь Нет
Connor ДПС Да

🧾 Команда:

/scanmd

🖼️ Ожидаемый вывод (в Markdown):

| Имя    | Роль   | Онлайн |
|--------|--------|--------|
| Alex   | Танк   | Да     |
| Bella  | Лекарь | Нет    |
| Connor | ДПС    | Да     |

💬 С уточнением:

/scanmd выведи список тех, кто онлайн

🎯 Общие шаблоны команд

Тип изображения Команда Что делает
Фотография сцены /scan Описание объектов и действий
Фото с надписью /scantxt Распознаёт текст
Документ/таблица /scanmd Переводит в структурированный Markdown
Диаграмма/плакат /scanmd как список Выделяет пункты списком
Скрин экрана /scan что на экране Комментарий по содержимому
QR‑код или метка /scantxt Распознаёт данные (например, URL)

Генерация изображений

На май 2025 года в системе доступны следующие модели генерации изображений, каждая из которых обладает уникальными особенностями и рейтингами:


🖼️ GPT-Image-1 (OpenAI)

Описание: Новая мультимодальная модель от OpenAI, интегрированная в GPT-4o, предназначена для высококачественной генерации и редактирования изображений.

Ключевые особенности:

  • Генерация изображений с высоким уровнем детализации и разнообразием стилей.
  • Поддержка различных аспектных соотношений: 1024×1024 (квадрат), 1536×1024 (портрет), 1024×1536 (ландшафт).
  • Возможность редактирования изображений и точного управления стилем.

Рейтинг: Считается одной из ведущих моделей в области генерации изображений, превосходя предыдущие версии, такие как DALL·E 3, по качеству и функциональности.

Загруженная картинка для работы с GPT-Image-1:

Загруженная картинка для работы с GPT-Image-1

GPT-Image-1 копирует стиль и персонажа:

GPT-Image-1 копирует стиль и персонажа

GPT-Image-1 копирует стиль и персонажа:

GPT-Image-1 копирует стиль и персонажа

GPT-Image-1 копирует стиль и персонажа:

GPT-Image-1 копирует стиль и персонажа

GPT-Image-1 копирует стиль и персонажа:

GPT-Image-1 копирует стиль и персонажа

Картинка получена через доступную модель flux_dev_pixel_game_assets:

Картинка получена через доступную модель flux_dev_pixel_game_assets

GPT-Image-1 копирует стиль и персонажа:

GPT-Image-1 копирует стиль и персонажа

GPT-Image-1 копирует стиль и персонажа:

GPT-Image-1 копирует стиль и персонажа

Загруженная картинка для работы с GPT-Image-1:

Загруженная картинка для работы с GPT-Image-1

GPT-Image-1 копирует стиль и персонажа:

GPT-Image-1 копирует стиль и персонажа


🎨 Flux Series (Black Forest Labs)

Описание: Набор моделей от Black Forest Labs, разработанных бывшими сотрудниками Stability AI, ориентированных на различные потребности пользователей.

Модели:

  • Flux 1.1 Pro:

  • Флагманская модель с выдающимся качеством изображений, сравнимым с Midjourney v6.0 и DALL·E 3.

  • Идеальна для профессионального использования, требующего высокой детализации и точности.
  • Доступна через API для коммерческого использования.

  • Flux Dev:

  • Вариант с открытым исходным кодом для некоммерческого использования.

  • Предоставляет качество, близкое к версии Pro, и подходит для исследований и разработок.

  • Flux Schnell:

  • Оптимизирована для скорости и эффективности.

  • Подходит для быстрых черновиков и проектов с ограниченными ресурсами.
  • Доступна под лицензией Apache 2.0.

Рейтинг: Flux 1.1 Pro и Dev демонстрируют высокое качество генерации изображений, сопоставимое с ведущими коммерческими моделями, такими как Midjourney и DALL·E 3.


📌 Выводы и рекомендации

  • GPT-Image-1: Рекомендуется для задач, требующих высокого качества изображений и точного управления стилем.

  • Flux 1.1 Pro: Подходит для профессионального использования, где необходимы детализированные и реалистичные изображения.

  • Flux Dev: Идеален для исследовательских проектов и разработок с открытым исходным кодом.

  • Flux Schnell: Оптимален для быстрых прототипов и проектов с ограниченными ресурсами.

Каждая из этих моделей обладает своими преимуществами, и выбор зависит от конкретных требований проекта, включая качество, скорость и доступность.


Картинка получена через доступную модель flux_dev_pixel_game_assets:

Картинка получена через доступную модель flux_dev_pixel_game_assets

Картинка получена через доступную модель flux_dev_game_assets:

Картинка получена через доступную модель flux_dev_game_assets

Картинка получена через доступную модель flux_dev_modern_pixel_art:

Картинка получена через доступную модель flux_dev_modern_pixel_art

Картинка получена через доступную модель flux_1_1_pro:

Картинка получена через доступную модель flux_1_1_pro

Картинка получена через доступную модель flux_dev_modern_pixel_art:

Картинка получена через доступную модель flux_dev_modern_pixel_art

Картинка получена через доступную модель flux_dev_pixel_game_assets:

Картинка получена через доступную модель flux_dev_pixel_game_assets

Картинка получена через доступную модель flux_schnell:

Картинка получена через доступную модель flux_schnell

Картинка получена через доступную модель flux_1_1_pro:

Картинка получена через доступную модель flux_1_1_pro

Картинка получена через доступную модель flux_1_1_pro:

Картинка получена через доступную модель flux_1_1_pro

Картинка получена через доступную модель flux_1_1_pro:

Картинка получена через доступную модель flux_1_1_pro

Картинка получена через доступную модель flux_1_1_pro:

Картинка получена через доступную модель flux_1_1_pro

Картинка получена через доступную модель flux_1_1_pro:

Картинка получена через доступную модель flux_1_1_pro

Картинка получена через доступную модель flux_1_1_pro:

Картинка получена через доступную модель flux_1_1_pro

Картинка получена через доступную модель flux_dev_pixel_game_assets:

Картинка получена через доступную модель flux_dev_pixel_game_assets

Картинка получена через доступную модель flux_dev_game_assets:

Картинка получена через доступную модель flux_dev_game_assets

Картинка получена через доступную модель flux_dev_modern_pixel_art:

Картинка получена через доступную модель flux_dev_modern_pixel_art

Картинка получена через доступную модель flux_dev_pixel_game_assets:

Картинка получена через доступную модель flux_dev_pixel_game_assets

  • При генерации изображений по умолчанию включена помощь AI для улучшения промптов (можно отключить через /toggle_ai_prompt)

Распознавание речи и аудиофайлов

Бот автоматически распознает речь из голосовых сообщений и аудиофайлов. Можно использовать микрофон или загружать аудиофайлы. Сам распознанный текст полностью отображается в окне бота, и его можно скопировать и использовать для быстрых заметок при написании основного текста. После распознавания будут предложены быстрые команды для работы с распознанным текстом.

🤖 Для кого предназначен этот Telegram ИИ-бот?

Этот Telegram-бот идеально подходит пользователям, которые активно используют возможности нейросетей для повседневных и профессиональных задач, таких как:

  • 💻 Программисты и IT-специалисты — для анализа кода, генерации сниппетов, отладки и оптимизации проектов.
  • 📚 Студенты и преподаватели — для написания и анализа текстов, помощи с домашними заданиями и исследованиями.
  • 🧑‍💼 Предприниматели и маркетологи — для генерации контента, анализа данных, перевода и составления документов.
  • 🎨 Дизайнеры и креативщики — для генерации и обработки изображений, вдохновения и создания концептов.
  • 🎮 Геймеры и разработчики игр — помощь в переводах и интерпретации сленга MMORPG, генерации игровых ассетов, написании сценариев и описаний.

🚀 Чем этот Telegram-бот лучше платного ChatGPT?

1. Доступность и удобство

  • Telegram-бот всегда под рукой в вашем мессенджере — не нужно переключаться между вкладками.
  • Быстрая работа, мгновенные ответы без задержек и сбоев.

2. Меньше ограничений и лимитов

  • Без жёстких лимитов на сообщения и без постоянного обновления страницы.
  • Нет привязки к ежемесячной подписке и другим ограничениям платного ChatGPT.

3. Гибкие модели и оптимизация расходов

  • Большой выбор моделей: от мощных GPT-4o до лёгких и быстрых nano-версий.
  • Есть дешёвые и быстрые модели (Flux Schnell, GPT-4.1 Nano), значительно экономящие бюджет.

4. Работа с файлами

  • Простая работа с текстовыми и графическими файлами прямо в Telegram:

  • Анализ изображений, OCR-распознавание текста, преобразование в Markdown.

  • Возможность загрузки текстовых файлов (.txt, .md, .csv, .cpp и др.) и удобное управление их содержимым.

5. Продвинутые функции и интеграции

  • Удобные XML-разметки, Chain-of-Thought Prompting, JSON-дикшинари для сложных задач.
  • Смарт-кэширование и оптимизация токенов, снижающие затраты и ускоряющие работу.

📌 Итоговое сравнение с ChatGPT Plus

Возможность ✅ Telegram-бот ⚠️ ChatGPT Plus
Стоимость и лимиты ⭐ Более гибко, дешевле, нет ежемесячной платы 🟡 Фиксированная месячная плата
Модели и настройка ⭐ Шире выбор моделей, лёгкое переключение 🟡 Ограниченный выбор, мало контроля
Удобство и доступность ⭐ Доступен из Telegram в любое время 🟡 Только через браузер или приложение
Работа с изображениями и файлами ⭐ OCR, Markdown-конвертация, удобная загрузка 🟡 Ограниченные возможности
Оптимизация расходов и токенов ⭐ Интеллектуальное кэширование, экономия токенов 🔴 Нет встроенных инструментов

Подписка ChatGPT Plus предоставляет доступ к расширенным возможностям, но также включает определённые ограничения на использование. Ниже приведены актуальные лимиты и особенности подписки по состоянию на май 2025 года:


📊 Ограничения подписки ChatGPT Plus

💬 Лимиты сообщений:

📚 Deep Research:

  • Стандартная версия (на базе o3): до 10 запросов в месяц.

  • Облегчённая версия (на базе o4-mini): дополнительно 15 запросов в месяц после исчерпания лимита стандартной версии. (Beebom)


⚙️ Дополнительные ограничения:

  • Загрузка файлов в Custom GPTs: до 20 файлов, каждый размером до 512 МБ. (OpenAI Community)

  • DALL·E 3: в периоды высокой нагрузки лимит может снижаться до 20 запросов каждые 3 часа. (OpenAI Community)


💰 Стоимость подписки:

  • ChatGPT Plus: $20 в месяц (в некоторых регионах может взиматься дополнительный налог). (Guides.ai)


🎯 Вывод:

Telegram ИИ-бот — удобный, быстрый и экономичный инструмент для ежедневной работы с нейросетями, который превосходит платный ChatGPT по гибкости, функциональности и удобству использования.

Попробуйте бесплатно уже сегодня d00m4ace ИИ Телеграм Бот - ChatGPT_d00m4ace_bot