Sipariş listesinde ürün yok
9786253755065
500,00 TL
400,00 TL
-20%
TANITIM YAZISI
Bu kitap, yalnızca bir derin öğrenme eğitimi sunmayı değil; sizi fikirden uygulamaya,
koddan projeye, modelden ürüne uzanan bütünlüklü bir yolculuğa çıkarmayı
amaçlıyor.
Yapay zekâ artık bir araştırma konusu olmaktan çıkıp gündelik hayatın merkezine
yerleşti. Görüntü tanıma, ses analizi, metin yorumlama, hastalık tahmini, üretim
hattı kontrolü gibi pek çok alanda derin öğrenme modelleri karar veriyor, yönlendiriyor
ve tahmin ediyor. Ancak bu sistemleri sadece kullanmakla kalmayıp sıfırdan
kurabilmek, doğru yöntemle eğitebilmek ve gerçek problemlere uygulayabilmek,
günümüz mühendislerinin ve araştırmacılarının sahip olması gereken temel bir beceri
hâline geldi.
İşte bu kitap, derin öğrenmeyi öğrenmek isteyen herkes için yalın, sistematik
ve pratik bir yaklaşım sunmak amacıyla hazırlandı. Konular, en temel kavramlardan
başlayarak adım adım yükselen bir yapıda işlenmiştir. Yapay sinir ağlarının nasıl çalıştığını anlamakla başlayıp, gerçek veri kümeleri üzerinde CNN, RNN, Transformer
gibi modellerin nasıl eğitileceğini, değerlendirileceğini ve optimize edileceğini
öğreniyorsunuz.
İÇİNDEKİLER
BÖLÜM 1 Derin Öğrenmenin Temelleri ve PyTorch’a Giriş
1.1. Yapay Zekâ (AI), Makine Öğrenmesi (ML) ve Derin Öğrenme (DL) Nedir?
1.2. AI → ML → DL Arasındaki Hiyerarşik İlişki
1.3. Veriye Dayalı Öğrenme Türleri: Denetimli, Denetimsiz, Yarı Denetimli ve Pekiştirmeli Öğrenme
1.4. Makine Öğrenmesinde Model, Hipotez ve Fonksiyon Kavramları
1.5. Parametre ve Hiperparametre Arasındaki Fark: Kavramsal ve İşlevsel Bir Ayrım
1.6. Bias, Variance ve Generalization Nedir?
1.7. Aşırı Öğrenme (Overfitting), Yetersiz Öğrenme (Underfitting)
1.8. Derin Öğrenmeye Neden İhtiyaç Duyuldu?
1.9. Gerçek Dünya Uygulama Alanları: Görüntü, Metin, Ses, Sağlık, Finans
BÖLÜM 2 Sinir Ağlarının Yapısı ve Bileşenleri
2.1. Yapay nöron (Perceptron) ve çok katmanlı algılayıcı (MLP)
2.2. İleri Beslemeli Ağlar (Feedforward Networks)
2.3. Katman Türleri: Dense, Dropout, BatchNorm, Aktivasyon
2.4. Aktivasyon Fonksiyonları: Sigmoid, Tanh, Relu, Leakyrelu, GELU
2.5. Hesaplama Grafiği Ve Otomatik Türev
2.6. Parametre Güncelleme: Gradient Descent ve Türevleri (SGD, Adam, RMSprop)
2. 7. Kayıp (Loss) ve Maliyet (Cost) Fonksiyonları
2. 8. PyTorch Mimarisi: Modül, Katman, Tensör, Optimizer, Loss Function
BÖLÜM 3 Tensörler ve Pytorch Temelleri
3.1. Tensor Nedir? Vektör, Matris ve Yüksek Boyutlu Tensör Farkları
3.2. PyTorch tensör işlemleri
3.3. GPU Kullanımı ve CUDA Mimarisi
3.4. requires_grad, backward() ve .grad: Otomatik Türev Mekanizması (Autograd)
3.5. PyTorch ile NumPy Arasındaki Farklar
3.5. PyTorch’ta Random Seed Kontrolü ve Tekrar Üretilebilirlik (Reproducibility)
3.7. Basit Örnek: Tensör Tabanlı Lineer Regresyon (PyTorch)
BÖLÜM 4 PyTorch ile Eğitim Süreci ve Model Değerlendirme
4.1. Eğitim (Training) Ve Test (Inference) Aşamaları
4.2. Eğitim Döngüsü Nasıl Kurulur?
4.3. nn.Module ve forward() Fonksiyonu Nedir?
4.4. torch.optim ile Optimizer Kullanımı
4.5. Batch, Mini-Batch ve Epoch Kavramları
4.6. Öğrenme Oranı (Learning Rate) Seçimi ve Planlaması
4.7. model.train() ve model.eval() Modları
4.8. Early Stopping ve Model Checkpointing: Aşırı Öğrenmeye Karşı Stratejiler
BÖLÜM 5 Veri Hazırlama ve PyTorch Dataset API
5.1. PyTorch’ta torch.utils.data.Dataset ve DataLoader Sınıfları
5.2. Görüntü, Metin ve Zaman Serisi Verilerinin İşlenmesi
5. 3. torchvision.transforms ve Custom Transform Yazımı
5. 4. Data Augmentation Teknikleri: Random Crop, Flip, Noise, Blur
5. 5. Dönüştürme İşlemleri: ToTensor, Normalize ve Özel Ön İşleyiciler
5. 6. Batch Shuffle, num_workers ve Bellek Yönetimi
5. 7. Custom Dataset Sınıfı Oluşturma
BÖLÜM 6 Görüntü Tanıma için CNN (ConvolutIonal Neural Networks)
6.1. Konvolüsyon işlemi nedir?
6.2. Filtreler, Kernel, Padding, Stride Kavramları
6.3. Pooling ve Pooling Yöntemleri (Max, Average, Global Pooling)
6.4. Softmax ve Flatten Katmanları
6.5. Sınıflandırma Metrikleri
6.6. CNN Mimarisi ve bir Sınıflandırma Örneği
6.7. Feature Map Nedir?
6.8. nn.Sequential ile Model Yazımı
6.9. GPU ile Eğitim Örneği – Derin Öğrenmede Donanımın Gücünü Kullanmak
BÖLÜM 7 İleri Seviye CNN Yapıları ve Transfer Öğrenme
7.1. VGG, ResNet, DenseNet, EfficientNet Transfer Öğrenme Metotları
7.2. Residual Connection ve Bottleneck Yapısı
7.3. Pre-trained Model Kullanımı ve Fine-Tuning
7.4. Feature Extractor Olarak CNN Kullanımı
7.5. Transfer Öğrenme ile Küçük Veri Setlerinde Başarı Artırma
BÖLÜM 8 Düzenleme ve Aşırı Öğrenmeyi Önleme Teknikleri
8.1. Dropout ve SpatialDropout
8.2. L1 ve L2 Düzenleme (Weight Decay)
8.3. Batch Normalization
8.4. Early Stopping ve Learning Rate Scheduler
8.5. Model Karmaşıklığı Kontrolü (Parametre Sayısı)
BÖLÜM 9 RNN, LSTM, TCN ve GRU
9.1. Zaman Serisi Ve Doğal Dil İşleme Temelleri
9.2. nn.RNN, nn.LSTM ve nn.GRU Yapıları ve Farkları
9.3. Gizli Durum (Hidden State) ve Hücre Durumu (Cell State)
9.4. Sequence Veri Hazırlama (Padding, Pack_Padded)
9.5. Uygulama: Metin Üretimi, Duygu Analizi, Zaman Serisi Tahmini
BÖLÜM 10 Transformers ve Attentıon Mekanizmaları
10.1. Attention Nedir, Neden Kullanılır?
10.2. Self-Attention ve Multi-Head Attention
10.3. Transformer Mimarisinin Katmanları
10.4. BERT, GPT Gibi Modellerin Temelleri
10.5. Huggingface Transformers Ile Hazır Model Kullanımı
BÖLÜM 11 Doğal Dil İşleme (NLP) Uygulamaları
11.1. Tokenization Ve Embedding Kavramı
11.2. Word2Vec, Glove, Fasttext Kullanımı
11.3. Embedding Katmanı Ve Sequence Modelleme
11.4. Text Classification ve Sentiment Analysis
11.5. Sequence-To-Sequence Modeli ile Çeviri Örneği
BÖLÜM 12 Otomatik Kodlayıcılar (Autoencoders)
12.1. Encoder-Decoder Mantığı
12.2. Lineer ve Konvolüsyonel Autoencoder
12.3. Gürültülü Autoencoder (Denoising AE)
12.4. Latent Space Görselleştirme
12.5. VAE (Variational Autoencoder)
BÖLÜM 13 Generatıve Adversarıal Networks (GAN)
13.1. GAN Mimarisi: Generator vs Discriminator
13.2. Gerçek vs Sahte Örnek Üretimi
13.3. GAN Eğitim Dengesizlikleri ve Çözüm Yolları
13.4. Basit bir GAN ile Çiçek Üretimi
13.5. DCGAN, CycleGAN, StyleGAN Modeller
BÖLÜM 14 Model Kaydetme, Yükleme ve Servis Etme
14.1. torch.save() ve torch.load() Kullanımı
14.2. state_dict Mantığı
14.3. Eğitim Sonrası Modeli Inference (Çıkarım) İçin Hazırlama
14.4. Torchscript ve ONNX İle Model Taşınabilirliği
14.5. Model Versiyonlama Ve Üretim Ortamı Için
En Iyi Uygulamalar
BÖLÜM 15 Performans İzleme ve Model Takibi
15.1. torch.utils.tensorboard, matplotlib
15.2. Eğitim Eğrileri: Loss, Accuracy, Precision-Recall
15.3. AUC-ROC ve Confusion Matrix Görselleştirmeleri
15.4. Model Loglama ve Sürüm Takibi
BÖLÜM 16 Hiperparametre Optimizasyonu
16.1. Öğrenme Oranı, Dropout Oranı, Batch Size
16.2. Grid Search, Random Search, Bayesian Optimization
16.3. Optuna ve Ray Tune Tanıtımı
16.4. Otomatik Deney Yönetimi
BÖLÜM 17 PyTorch LIghtnIng ile Temiz Eğitim
17.1. PyTorch Lightning nedir?
17.2 LightningModule ve Trainer Sınıfı
17.3. Kodun Sadeleşmesi, Yeniden Kullanılabilirlik
17.4. Callback Yapıları İle Erken Durdurma ve Model Kaydı
17.5 Dağıtık Eğitim Desteği
BÖLÜM 18 Çoklu GPU ve Dağıtık Eğitim
18.1. DataParallel vs DistributedDataParallel
18.2. GPU Bellek Yönetimi
18.3. Batch Büyüklüğü Optimizasyonu
18.4 Eğitim Hızlandırma Teknikleri (Mixed Precision, AMP)
BÖLÜM 19 Gerçek Dünya Projeleri ve Endüstri Uygulamaları
19.1. Görüntü sınıflandırma
19.2. Sinyal Sınıflandırma (EKG)
19.3. NLP (metin analizleri, spam tespiti)
19.4. Anomali tespiti (finans, IoT, siber güvenlik) 335
BÖLÜM 20 Bitirme Projesi – Sıfırdan Model Geliştirme Süreci
20.1. Proje Fikri Oluşturma
20.2. Veri Keşfi ve Ön İşleme
20.4. Performans Değerlendirme
20.5. Sunum ve Model Deployment
Kaynaklar
ISBN | 9786253755065 |
Basım Yılı | 2025 |
Sayfa Sayısı | 359 |
Yazar(lar) | Yılmaz KAYA |