Читаем 120 практических задач полностью

model.add(layers.Dense(10, activation='softmax'))

model.compile(optimizer='adam',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])

model.fit(train_images, train_labels, epochs=5, batch_size=128)

test_loss, test_acc = model.evaluate(test_images, test_labels)

print(f"Точность на тестовых данных с 256 нейронами: {test_acc}")

```

2. Использование другой функции активации:

```python

# Скрытый слой с функцией активации 'tanh'

model = models.Sequential

model.add(layers.Dense(512, activation='tanh', input_shape=(28 * 28,)))

model.add(layers.Dense(10, activation='softmax'))

model.compile(optimizer='adam',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])

model.fit(train_images, train_labels, epochs=5, batch_size=128)

test_loss, test_acc = model.evaluate(test_images, test_labels)

print(f"Точность на тестовых данных с активацией tanh: {test_acc}")

```

3. Использование другого оптимизатора:

```python

# Оптимизатор 'SGD'

model = models.Sequential

model.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))

model.add(layers.Dense(10, activation='softmax'))

model.compile(optimizer='sgd',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])

model.fit(train_images, train_labels, epochs=5, batch_size=128)

test_loss, test_acc = model.evaluate(test_images, test_labels)

print(f"Точность на тестовых данных с оптимизатором SGD: {test_acc}")

```

Дополнительные методы предобработки данных и регуляризации

1. Регуляризация Dropout:

```python

# Модель с Dropout

model = models.Sequential

model.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))

model.add(layers.Dropout(0.5))

model.add(layers.Dense(10, activation='softmax'))

model.compile(optimizer='adam',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])

model.fit(train_images, train_labels, epochs=5, batch_size=128)

test_loss, test_acc = model.evaluate(test_images, test_labels)

print(f"Точность на тестовых данных с Dropout: {test_acc}")

```

2. Стандартизация данных:

```python

from sklearn.preprocessing import StandardScaler

# Стандартизация данных

scaler = StandardScaler

train_images_scaled = scaler.fit_transform(train_images)

test_images_scaled = scaler.transform(test_images)

model = models.Sequential

model.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))

model.add(layers.Dense(10, activation='softmax'))

model.compile(optimizer='adam',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])

model.fit(train_images_scaled, train_labels, epochs=5, batch_size=128)

test_loss, test_acc = model.evaluate(test_images_scaled, test_labels)

print(f"Точность на тестовых данных со стандартизацией: {test_acc}")

```

Эти дополнительные шаги помогут вам лучше понять поведение модели и улучшить её производительность за счёт оптимизации различных параметров и методов предобработки данных.

<p><strong>2. Улучшение модели с использованием регуляризации и dropout</strong></p>

– Задача: Повышение точности классификации.

Регуляризация и Dropout – это мощные методы, которые помогают улучшить обобщающую способность модели и предотвращают переобучение. Регуляризация добавляет штраф за сложные модели, уменьшая значения весов, а Dropout отключает случайный набор нейронов в процессе обучения, что снижает зависимость между нейронами.

Регуляризация L2

Регуляризация L2 добавляет штраф за большие веса к функции потерь, что помогает предотвратить переобучение.

```python

import tensorflow as tf

from tensorflow.keras import layers, models, regularizers

import numpy as np

import matplotlib.pyplot as plt

# Загрузка и предобработка данных

(train_images, train_labels), (test_images, test_labels) = tf.keras.datasets.mnist.load_data

train_images = train_images / 255.0

test_images = test_images / 255.0

train_images = train_images.reshape((60000, 28 * 28))

test_images = test_images.reshape((10000, 28 * 28))

# Модель с регуляризацией L2

model = models.Sequential

model.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,), kernel_regularizer=regularizers.l2(0.001)))

model.add(layers.Dense(10, activation='softmax'))

# Компиляция модели

model.compile(optimizer='adam',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])

# Обучение модели

model.fit(train_images, train_labels, epochs=5, batch_size=128)

# Оценка модели

test_loss, test_acc = model.evaluate(test_images, test_labels)

print(f"Точность на тестовых данных с регуляризацией L2: {test_acc}")

```

Dropout

Dropout случайным образом отключает нейроны в процессе обучения, что снижает вероятность переобучения.

```python

# Модель с Dropout

model = models.Sequential

model.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))

model.add(layers.Dropout(0.5)) # Dropout слой с вероятностью 0.5

model.add(layers.Dense(10, activation='softmax'))

# Компиляция модели

model.compile(optimizer='adam',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])

# Обучение модели

Перейти на страницу:

Похожие книги

1917–1920. Огненные годы Русского Севера
1917–1920. Огненные годы Русского Севера

Книга «1917–1920. Огненные годы Русского Севера» посвящена истории революции и Гражданской войны на Русском Севере, исследованной советскими и большинством современных российских историков несколько односторонне. Автор излагает хронику событий, военных действий, изучает роль английских, американских и французских войск, поведение разных слоев населения: рабочих, крестьян, буржуазии и интеллигенции в период Гражданской войны на Севере; а также весь комплекс российско-финляндских противоречий, имевших большое значение в Гражданской войне на Севере России. В книге используются многочисленные архивные источники, в том числе никогда ранее не изученные материалы архива Министерства иностранных дел Франции. Автор предлагает ответы на вопрос, почему демократические правительства Северной области не смогли осуществить третий путь в Гражданской войне.Эта работа является продолжением книги «Третий путь в Гражданской войне. Демократическая революция 1918 года на Волге» (Санкт-Петербург, 2015).В формате PDF A4 сохранён издательский дизайн.

Леонид Григорьевич Прайсман

История / Учебная и научная литература / Образование и наука
1221. Великий князь Георгий Всеволодович и основание Нижнего Новгорода
1221. Великий князь Георгий Всеволодович и основание Нижнего Новгорода

Правда о самом противоречивом князе Древней Руси.Книга рассказывает о Георгии Всеволодовиче, великом князе Владимирском, правнуке Владимира Мономаха, значительной и весьма противоречивой фигуре отечественной истории. Его политика и геополитика, основание Нижнего Новгорода, княжеские междоусобицы, битва на Липице, столкновение с монгольской агрессией – вся деятельность и судьба князя подвергаются пристрастному анализу. Полемику о Георгии Всеволодовиче можно обнаружить уже в летописях. Для церкви Георгий – святой князь и герой, который «пал за веру и отечество». Однако существует устойчивая критическая традиция, жестко обличающая его деяния. Автор, известный историк и политик Вячеслав Никонов, «без гнева и пристрастия» исследует фигуру Георгия Всеволодовича как крупного самобытного политика в контексте того, чем была Древняя Русь к началу XIII века, какое место занимало в ней Владимиро-Суздальское княжество, и какую роль играл его лидер в общерусских делах.Это увлекательный рассказ об одном из самых неоднозначных правителей Руси. Редко какой персонаж российской истории, за исключением разве что Ивана Грозного, Петра I или Владимира Ленина, удостаивался столь противоречивых оценок.Кем был великий князь Георгий Всеволодович, погибший в 1238 году?– Неудачником, которого обвиняли в поражении русских от монголов?– Святым мучеником за православную веру и за легендарный Китеж-град?– Князем-провидцем, основавшим Нижний Новгород, восточный щит России, город, спасший независимость страны в Смуте 1612 года?На эти и другие вопросы отвечает в своей книге Вячеслав Никонов, известный российский историк и политик. Вячеслав Алексеевич Никонов – первый заместитель председателя комитета Государственной Думы по международным делам, декан факультета государственного управления МГУ, председатель правления фонда "Русский мир", доктор исторических наук.В формате PDF A4 сохранен издательский макет.

Вячеслав Алексеевич Никонов

История / Учебная и научная литература / Образование и наука